972 resultados para determinação por um único ponto
Resumo:
Inicia-se o trabalho, reconstituindo-se, sob um ponto de vista histórico, o problema do dualismo e do monismo, na Psicologia. A reconstituição é feita partindo-se de uma origem situada em Sócrates e, dai, desenvolvendo-se até os dias atuais, onde, demonstra-se, a questão permanece. A identificação daquela origem foi determinada pela circunstância de, alí, o problema ter merecido um estudo sistematizado e ter se caracterizado como metafísico. Entendendo-se, com isso, que a questão a resolver era a respeito do que existiria como entidade autônoma. Neste caso, então, se apenas o "corpo", se apenas a "mente" ou se os dois. As soluções que propunham a existência só da mente (monistas da mente), ou de mente e corpo, enquanto entidades distintas (dualistas) viriam a ser, portanto, decisivas para a própria concepção da Psicologia. Como se afirma ser, a partir de uma decisão referente ao problema anterior, que se deva desenvolver uma Psicologia cientifica, estabelece-se, no capítulo II, as concepções adotadas para Ciência, conhecimento científico e método científico. Ali, aproveita-se para justificar porque parte do estudo deve cair sob o domínio da Filosofia da Ciência, como um todo e da Filosofia da Psicologia, em particular. No capítulo III, volta-se a demonstrar com maior ênfase, que o problema "mente-corpo" é, ainda hoje, metafísico e requer uma tomada de decisão, naqueles termos. Mostra-se que a decisão é sempre tomada quando nada como pressuposto, senão explícito, pelo menos implícito. Uma vez tendo-se demonstrado que só o corpo pode ser afirmado como representando alguma coisa que exista, em termos reais, no sentido metafísico, parte-se para o estabelecimento daquele que seria o autêntico objeto de estudo da Psicologia. Fazendo-se, então, uso de uma Semântica Filosófica "crítico-realista", demonstra-se que ele termina sendo: o conjunto de propriedades do objeto real representado pelo corpo e responsáveis pelas manifestações pelas quais a Psicologia, por uma tradição de investigação, sempre se interessou. Finalmente, no capítulo IV, concebe-se um modelo sistêmico para representar a Natureza. Nele vige a 'lei' da transformação, que resulta da' interação entre os subsistemas. Entre os subsistemas existem aqueles que representam objetos reais e são designados como "Corpo Humano". Estes estão sujeitos à mesma 'lei'. A partir da transformação do U23592 em Pb20782, constrói-se duas funções matemáticas, com base na teoria dos conjuntos, para demonstrar-se como funciona a lei da transformação ou a função transformação, aplicável a todos os subsistemas, que são elementos do Sistema que representa a Natureza. Dessas construções e mais algumas, ao serem aplicadas aos subsistemas que representam os objetos reais denotados como Corpo Humano, extrai-se um grande número de consequências para a Psicologia. Termina-se apresentando um modelo específico para representar o objeto real denotado por Corpo Humano. Este, como subsistema, também é um sistema e composto de quatro subsistemas: Motor, Emocional, Perceptivo e Cognitivo. O todo e as partes passam a funcionar regidos pela lei da Transformação.
Resumo:
A viscosimetria é um procedimento experimental simples e pouco oneroso, que pode fornecer informações valiosas sobre o volume hidrodinâmico e a conformação de macromoléculas em solução, num determinado solvente, em uma dada temperatura. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, cuja execução experimental é mais demorada. Em contrapartida, é possível que a determinação seja feita por um único ponto. Neste trabalho, os dois métodos de cálculo, empregando uma série de seis equações: Huggins, Kraemer e Schulz-Blaschke, por extrapolação gráfica, e Schulz-Blaschke, Solomon-Ciuta e Deb-Chanterjee por um único ponto, foram utilizados em soluções de poli(glicol propilênico) (PPG) e copolímeros em bloco à base de poli(glicol propilênico) e poli(glicol etilênico) (EG-b-PG), com diferentes teores de poli(glicol etilênico), tendo isopropanol, tetra-hidrofurano (THF) e tolueno como solventes puros, além das misturas em proporções iguais de THF/ isopropanol e THF/ tolueno, a 25C. Os valores de viscosidade intrínseca e de algumas constantes indicaram que os solventes puros e as misturas se apresentaram no limite entre o bom e o mau solvente. Verificou-se também que o método de cálculo por um único ponto foi válido, especialmente quando a equação de Schulz-Blaschke foi empregada, apresentando um baixo percentual de erro sendo possível assim reduzir o tempo de análise para a maioria dos sistemas estudados
Resumo:
Copolímeros à base de estireno e anidrido maleico (SMA) são materiais sintéticos comercialmente disponíveis, obtidos pela reação dos dois monômeros citados em diferentes proporções, resultando em materiais versáteis, e disponíveis em diferentes graus de massas e porcentagens molares de anidrido maleico. São considerados polímeros funcionais devido à reatividade do grupamento anidrido maleico presente na cadeia polimérica. Por este motivo, esses materiais possuem vasta gama de aplicações, e elevada importância em diversas áreas, principalmente por terem baixa toxicidade, boa resistência térmica e boa estabilidade dimensional. Dessa forma, para melhor aplicação desses copolímeros, é muito importante o conhecimento dos parâmetros relativos ao seu comportamento em solução. A viscosimetria, em especial, é um método simples, útil e apropriado para fornecer essas informações. Os parâmetros viscosimétricos podem ser matematicamente calculados por extrapolação gráfica, entretanto a geração dos dados experimentais é mais demorada. Em contrapartida, é possível que a determinação experimental seja feita de forma mais rápida, por um único ponto, procedimento esse que desperta tanto o interesse acadêmico quanto o industrial. Neste trabalho, foram empregados os dois métodos de cálculo, utilizando solventes puros, misturas de solventes e três amostras de copolímeros à base de SMA. As determinações foram conduzidas a 40C. Os copolímeros utilizados possuiam teores de anidrido maleico de 50%, 45% e 40%, sendo os dois últimos esterificados com butil-metil-éster e sec-butil-metil-éster, respectivamente. Os solventes utilizados foram: N-metil-pirrolidona (NMP), tetrahidrofurano (THF) e suas respectivas misturas 1:1 com metil-etil-cetona (MEK), ou seja, (NMP:MEK) e THF:MEK, sendo a MEK um não solvente para o copolímero não esterificado. As equações utilizadas para extrapolação gráfica foram as de Huggins, Kraemer e Schulz-Blaschke. As equações empregadas em um único ponto foram as de Solomon-Ciuta, Deb-Chanterjee e novamente Schulz-Blaschke. Os resultados obtidos foram comparados e avaliou-se a possibilidade da utilização do método mais rápido, por um único ponto, para os sistemas estudados através dos desvios percentuais tendo como padrão os resultados da equação de Huggins. A equação de Deb-Chanterjee foi a mais adequada aos sistemas em NMP, que foi também o melhor solvente para as amostras. Os resultados obtidos na mistura NMP:MEK sugeriram que a viscosimetria pode ter sido um método sensível às pequenas diferenças estruturais entre os grupos pendentes nas amostras esterificadas. Paralelamente, realizou-se análises de espectroscopia na região do infravermelho (FTIR), análise termogravimétrica (TGA) e ensaios dinâmico-mecânicos (DMA) para a caracterização estrutural e térmica das amostras. Somente os resultados obtidos a partir de DMA indicaram diferenças entre as amostras esterificadas
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
O Centrão, que conta hoje com cerca de 330 constituintes de vários partidos, que é Maioria na Assembleia Nacional Constituinte, já tem definidos os pontos que quer mudar no projeto aprovado pela Comissão de Sistematização. O Centrão quer alterar a questão da estabilidade no emprego, a emprescritibilidade, a questão do ensino privado, o monopólio na distribuição de combustível, a defesa da livre iniciativa. As prerrogativas do Congresso Nacional também é defendida. Só a partir do dia 4 de janeiro começa a correr o prazo para apresentação de emendas ao projeto de Constituição. Ulysses Guimarães tenta novamente aprovar os pontos pendentes do Regimento Interno. O número de assinaturas para apresentação de destaque continua sendo o único ponto polêmico. Ainda não houve acordo nesse ponto. O Primeiro-Ministro de Israel visita a Constituinte e se reúne com os principais líderes dos partidos e com o presidente da Constituinte. Segundo o Primeiro-Ministro de Israel, seu país tem como sistema de governo uma fusão entre o Presidencialismo com Parlamentarismo, fato que ajudou o Governo a manter a paz.
Resumo:
As síndromes mielodisplásicas (SMD) se caracterizam por terem uma hematopoese displásica, citopenias e pelo risco de progressão para leucemia mielóide aguda. O diagnóstico baseia-se na clínica e nos achados citomorfológicos da medula óssea (MO) e citogenéticos. Na fase inicial ou quando a MO é hipocelular o diagnóstico é difícil e a citogenética frequentemente é normal. A imunofenotipagem (IMF) tem sido cada vez mais utilizada nos casos de SMD em adultos e pouco explorada na SMD pediátrica. Os nossos objetivos foram: estudar os casos de SMD e doenças correlatas (LMA relacionada à SMD: LMA-rMD; leucemia mielomonocítica crônica: LMMC e leucemia mielomonocítica juvenil: LMMJ) em adultos e crianças, associando os dados clínicos e laboratoriais aos obtidos pela IMF, que utilizou um painel de anticorpos monoclonais para as várias linhagens medulares. No período compreendido entre 2000 e 2010 foram estudados 87 pacientes (64 adultos e 23crianças) oriundos do HUPE/UERJ e IPPMG/UFRJ e 46 controles (23 adultos e 20 crianças). Todos os doentes realizaram mielograma, biópsia óssea, citogenética, citoquímica e estudo imunofenotípico. Segundo os critérios da OMS 50 adultos foram classificados como SMD, 11 como LMA-rMD e 3 LMMC. Entre as crianças 18 eram SMD, 2 LMA e 3 LMMJ. Os pacientes adultos com SMD foram divididos em alto risco (n = 9; AREB-1 e AREB-2) e baixo risco (n=41; CRDU, CRDM, CRDM-SA, SMD-N e SMD-5q-). As crianças com SMD em CR (n=16) e AREB (n = 2). Anormalidades clonais recorrentes foram encontradas em 22 pacientes adultos e em 7 crianças. Na análise da IMF foi utilizada a metodologia da curva ROC para a determinação dos valores de ponto de corte a fim de identificar os resultados anormais dos anticorpos monoclonais nos pacientes e nos controles, permitindo determinar a sensibilidade e especificidade desses em cada linhagem. A IMF foi adequada para a análise em todos os pacientes e 3 ou mais anormalidades foram encontradas. A associação da IMF aumentou a sensibilidade da análise morfológica na linhagem eritróide de 70 para 97% nos adultos e de 59 para 86% nas crianças; na linhagem granulocítica de 53 para 98% nos adultos e de 50 para 100% nas crianças. Nos monócitos, onde a morfologia não foi informativa, mostrou uma sensibilidade de 86% nos adultos e 91% nas crianças. Enquanto que na linhagem megacariocítica, não analisada pela IMF, a morfologia mostrou uma sensibilidade de 95% nos adultos e 91% nas crianças. Na população de blastos foi expressiva a ausência de precursores linfóide B (em 92% dos adultos e em 61% das crianças). Os resultados observados nas crianças com SMD foram semelhantes aos encontrados nos adultos. Em conclusão, nossos resultados mostraram que a IMF é um método complementar ao diagnóstico da SMD e doenças correlatas tanto em adultos quanto em crianças podendo contribuir para o reconhecimento rápido e precoce dessas enfermidades, devendo ser incorporado aos procedimentos de rotina diagnóstica.
Resumo:
Instrumentos financeiros híbridos e/ou compostos têm sido tema constante em matéria de regulação contábil. A literatura positiva apresenta uma hipótese que ajuda a compreender o porquê de algumas firmas recorrerem a ditos instrumentos para captar recursos: nível de endividamento no limite de quebra de covenants contratuais. No Brasil, firmas com registro na CVM, que se utilizaram desses instrumentos, classificando-os no patrimônio líquido, tiveram suas ITRs e/ou DFs reapresentadas e/ou republicadas por determinação da CVM. O ponto crítico de toda a discussão reside na distinção entre um item de passivo e um item de patrimônio líquido. Esse tema está disciplinado na IAS 32 (PT CPC n. 39) e presente no Discussion Paper - A review of the conceptual framework for financial reporting, emitido pelo IASB em julho de 2013, que apresenta duas abordagens que podem ser utilizadas, visando a simplificar a distinção entre um item de passivo e de patrimônio líquido: a narrow equity approach - NEA e a strict obligation approach - SOA. A adoção de cada uma dessas abordagens terá um impacto diferente nos níveis de endividamento/alavancagem e no potencial de diluição de participação dos acionistas. Este trabalho tem como objetivo investigar abordagens para a classificação contábil das debêntures mandatoriamente conversíveis em ações, vis-à-vis a IAS 32 (PT CPC n. 39) e o Discussion Paper do IASB (NEA x SOA). A metodologia adotada é um estudo de caso de uma companhia aberta brasileira, que em 2010 emitiu debêntures mandatoriamente conversíveis e efetuou uma classificação desses instrumentos considerada inadequada pelo órgão regulador. Observa-se que a strict obligation approach é a abordagem que impacta menos no nível de endividamento, enquanto a narrow equity approach é a que apresenta maior alavancagem. As evidências sugerem os covenants contratuais como possíveis indutores de tal prática, fato que está em linha com o que a literatura da área documenta como fenômeno esperado. É bem verdade que no caso concreto, houve quebra contínua de covenants contratuais, corroborando a hipótese apresentada por SILVA (2008) de que o baixo custo de violação de covenants contribua para tal situação. Alternativamente, uma possível explicação para a escolha contábil da companhia reside na complexidade da IAS 32 (PT CPC 39) e desconhecimento de suas nuances.
Resumo:
Nesta tese, ferroeléctricos relaxor (I dont know uf the order is correct) de base Pb das familias (Pb,La)(Zr,Ti)O3 (PLZT), Pb(Mg1/3,Nb2/3)O3-PbTiO3 (PMN-PT), Pb(Zn1/3,Nb2/3)O3-PbTiO3 (PZN-PT) foram investigados e analisados. As propriedades ferroeléctricas e dieléctricas das amostras foram estudadas por métodos convencionais de macro e localmente por microscopia de força piezoeléctrica (PFM). Nos cerâmicos PLZT 9.75/65/35 o contraste da PFM à escala nanometrica _ foi investigado em função do tamanho e orientação dos grãos. Apurou-se que a intensidade do sinal piezoeléctrico das nanoestruturas diminui com o aumento da temperatura e desaparece a 490 K (La mol. 8%) e 420 K (9,5%). Os ciclos de histerese locais foram obtidos em função da temperatura. A evolução dos parâmetros macroscópicos e locais com a temperatura de superfície sugere um forte efeito de superfície nas transições de fase ferroeléctricas do material investigado. A rugosidade da parede de domínio é determinada por PFM para a estrutura de domínio natural existente neste ferroeléctrico policristalino. Além disso, os domínios ferroeléctricos artificiais foram criados pela aplicação de pulsos eléctricos à ponta do condutor PFM e o tamanho de domínio in-plane foi medido em função da duração do pulso. Todas estas experiências levaram à conclusão de que a parede de domínio em relaxors do tipo PZT é quase uma interface unidimensional. O mecanismo de contraste na superfície de relaxors do tipo PLZT é medido por PFMAs estruturas de domínio versus evolução da profundidade foram estudadas em cristais PZN-4,5%PT, com diferentes orientações através da PFM. Padrões de domínio irregulares com tamanhos típicos de 20-100 nm foram observados nas superfícies com orientação <001> das amostras unpoled?. Pelo contrário, os cortes de cristal <111> exibem domínios regulares de tamanho mícron normal, com os limites do domínio orientados ao longo dos planos cristalográficos permitidos. A existência de nanodomínios em cristais com orientação <001> está provisoriamente (wrong Word) atribuída à natureza relaxor de PZN-PT, onde pequenos grupos polares podem formar-se em coindições de zero-field-cooling (ZFC). Estes nanodomínios são considerados como os núcleos do estado de polarização oposta e podem ser responsáveis pelo menor campo coercitivo para este corte de cristal em particular. No entanto, a histerese local piezoelétrica realizada pelo PFM à escala nanométrica indica uma mudança de comportamento de PZN-PT semelhante para ambas as orientações cristalográficas investigadas. A evolução das estruturas de domínio com polimento abaixo da superfície do cristal foi investigada. O domínio de ramificações e os efeitos de polarização de triagem após o polimento e as medições de temperatura têm sido estudados pela PFM e pela análise SEM. Além disso, verificou-se que a intensidade do sinal piezoeléctrico a partir das estruturas de nanodomínio diminui com o aumento da temperatura, acabando por desaparecer aos 430 K (orientaçáo <111>) e 470 K (orientação <100>). Esta diferença de temperatura nas transições de fase local em cristais de diferentes orientações é explicada pelo forte efeito de superfície na transição da fase ferroelétrica em relaxors.A comutação da polarização em relaxor ergódico e nas fases ferroeléctricas do sistema PMN-PT foram realizadas pela combinação de três métodos, Microscopia de Força Piezoeléctrica, medição de um único ponto de relaxamento eletromecânico e por ultimo mapeamento de espectroscopia de tensão. A dependência do comportamento do relaxamento na amplitude e tempo da tensão de pulso foi encontrada para seguir um comportamento logarítmico universal com uma inclinação quase constante. Este comportamento é indicativo da progressiva população dos estados de relaxamento lento, ao contrário de uma relaxação linear na presença de uma ampla distribuição do tempo de relaxamento. O papel do comportamento de relaxamento, da não-linearidade ferroeléctrica e da heterogeneidade espacial do campo na ponta da sonda de AFM sobre o comportamento do ciclo de histerese é analisada em detalhe. Os ciclos de histerese para ergódica PMN- 10%PT são mostrados como cineticamente limitados, enquanto que no PMN, com maior teor de PT, são observados verdadeiros ciclos de histerese ferroeléctrica com viés de baixa nucleação.
Resumo:
The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.
Resumo:
A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.
Resumo:
A aproximação entre Graciliano Ramos e Dostoiévski se dá quase instantaneamente para quem os lê. No caso de Angústia e Crime e castigo, a semelhança se acentua. Por isso, ao longo desta dissertação, apoiados pelo conceito de influência, traçamos um caminho de leitura em que os pontos de contato entre esses dois escritores pudessem ser percebidos sem, no entanto, privilegiar um ou outro. Para tal, recorremos à História, que demonstrou semelhanças no contexto social na época da publicação das obras escolhidas para análise, e à Psicologia, que, através do conceito de angústia, possibilitou a análise dos protagonistas de Angústia e Crime e Castigo. Nesse trajeto, abordamos também, embora de forma resumida, questões como a tradução, a narrativa autobiográfica e a intertextualidade. Todos esses caminhos, no entanto, convergiram para um único ponto: o ser humano. É, essencialmente, o ser humano que une esses dois escritores. Esse fato, bastante óbvio pelo perfil dos escritores em questão, propicia uma análise da sociedade moderna, apesar da distância temporal, pois a questão humana não se alterou. O Homem continua “angustiado” em sua condição social, especialmente se tem consciência de sua nulidade enquanto indivíduo. Sua liberdade é cerceada por mecanismos sociais que independem de sua vontade. Seu “eu” desaparece em meio a uma multidão de objetos de consumo (des)necessários, que o tornam um “eu-social”. Sem esses objetos, sendo o dinheiro o mais almejado, somos desprovidos de valor, somos “nada”. Sendo o Homem a matéria-prima de Dostoiévski e de Graciliano Ramos, é natural que se encontrem pontos de contato entre eles. Do mesmo modo, é igualmente natural que os dois sejam considerados universais e atuais.
Resumo:
O Glifosato (herbicida sistêmico não seletivo, altamente usado no cultivo de arroz e soja) tem sido muito utilizado sob sistema de plantio direto, na região noroeste do Rio Grande do Sul, podendo ser considerado como o principal herbicida de aplicação. O presente estudo visa uma avaliação da degradação e transporte do Glifosato na bacia do Arroio Donato, cuja área é de aproximadamente 1,1 km2 no município de Pejuçara (RS). As amostras foram coletadas diretamente na lavoura, nas profundidades de 5, 10, 25 e 50 cm de um único ponto da lavoura de soja em dois períodos: 5 e 137 dias após a aplicação do herbicida. As amostras foram extraídas com solução de hidróxido de sódio e os extratos submetidos a processo de clean up em resinas CHELEX 100 e AG1-X8, seguido de concentração em rotavapor. Os extratos, assim obtidos, foram analisados por cromatografia líquida de alta eficiência (CLAE), com reação pós-coluna. Os resultados obtidos revelaram que nas amostras da coleta após cinco dias de aplicação do herbicida, o Glifosato foi somente detectado nas profundidades de 5 e 10 cm. Já o seu metabólito AMPA (Ácido aminometilfosfônico) foi identificado em todas as profundidades analisadas. Nas amostras da coleta de 137 dias após a aplicação, o herbicida Glifosato só foi constatado na amostra de 5 cm profundidade, enquanto que o seu metabólito AMPA foi identificado em todas as profundidades. Tais dados induzem que ocorre uma baixa tendência de lixiviação do Glifosato para camadas inferiores do solo em estudo, provavelmente devido sua forte interação com o solo. A presença do metabólito AMPA, em todas as camadas em estudo pode indicar sua lixiviação para camadas inferiores uma vez que, foi possível detectá-lo em todas as profundidades. Desta forma, fica claro que não houve degradação total do Glifosato em seu principal metabólito (AMPA) após um período de mais de quatro meses de aplicação.
Resumo:
Vídeos são dos principais meios de difusão de conhecimento, informação e entretenimento existentes. Todavia, apesar da boa qualidade e da boa aceitação do público, os vídeos atuais ainda restringem o espectador a um único ponto de vista. Atualmente, alguns estudos estão sendo desenvolvidos visando oferecer ao espectador maior liberdade para decidir de onde ele gostaria de assistir a cena. O tipo de vídeo a ser produzido por essas iniciativas tem sido chamado genericamente de vídeo 3D. Esse trabalho propõe uma arquitetura para captura e exibição de vídeos 3D em tempo real utilizando as informações de cor e profundidade da cena, capturadas para cada pixel de cada quadro do vídeo. A informação de profundidade pode ser obtida utilizando-se câmeras 3D, algoritmos de extração de disparidade a partir de estéreo, ou com auxílio de luz estruturada. A partir da informação de profundidade é possível calcular novos pontos de vista da cena utilizando um algoritmo de warping 3D. Devido a não disponibilidade de câmeras 3D durante a realização deste trabalho, a arquitetura proposta foi validada utilizando um ambiente sintético construído usando técnicas de computação gráfica. Este protótipo também foi utilizado para analisar diversos algoritmos de visão computacional que utilizam imagens estereoscópias para a extração da profundidade de cenas em tempo real. O uso de um ambiente controlado permitiu uma análise bastante criteriosa da qualidade dos mapas de profundidade produzidos por estes algoritmos, nos levando a concluir que eles ainda não são apropriados para uso de aplicações que necessitem da captura de vídeo 3D em tempo real.