118 resultados para traços semânticos: restrições seletivas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa teve como objetivo construir e validar uma escala para avaliação do fator neuroticismo/estabilidade emocional. Neuroticismo é uma dimensão da personalidade humana, no modelo dos cinco grandes fatores, que se refere ao nível crônico de ajustamento e instabilidade emocional. Um alto nível de neuroticismo identifica indivíduos propensos a sofrimento psicológico que podem apresentar altos níveis de ansiedade, depressão, hostilidade, vulnerabilidade, autocrítica, impulsividade, baixa auto-estima, idéias irreais, baixa tolerância a frustração e respostas de coping não adaptativas. No primeiro estudo deste projeto foram gerados os itens da escala e avaliadas as suas qualidades psicométricas e validade de construto. Os participantes foram 792 estudantes universitários de três estados brasileiros. O segundo estudo teve como objetivo verificar a validade concorrente do instrumento. Participaram 437 estudantes universitários. Os resultados mostraram que o instrumento e as quatro subescalas identificadas através da análise fatorial apresentam qualidades psicométricas adequadas. As correlações entre o instrumento e testes para avaliar ansiedade, depressão, bem estar subjetivo, auto estima e neuroticismo (EPQ) indicaram que a escala construída está avaliando adequadamente as diferentes facetas do construto neuroticismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os recursos hídricos superficiais e subterrâneos tem-se mostrado contaminados, cada vez mais freqüentemente, por substâncias orgânicas e inorgânicas, em nível de traços, prejudicando os seus usos mais nobres, por exemplo, abastecimento público. Este estudo teve por finalidade principal verificar a eficiência de rejeição por membranas poliméricas, de alguns compostos orgânicos tipo, naftaleno, carbofurano, tricloroetileno (TCE) e metil paration, em baixas concentrações. Empregou-se testes hidrodinâmicos de filtração, tipo "dead-end", com taxa de aplicação média de 13,16 m3.m-2.h-1 através das membranas comerciais de características distintas, uma de ultra (UE-50) e duas de nanofiltração (XN-40 e TS-80). Avaliou-se, também, a preparação de água contaminada para a filtração por membranas, através do prétratamento por oxidação do carbofurano em meio líquido, usando um desinfetante padrão, o hipoclorito de sódio. Após a oxidação desde composto, testes hidrodinâmicos de filtração foram realizados para verificar, também, a eficiência de rejeição dos sub-produtos. Por fim, foram realizados testes de envelhecimento das membranas que poderiam ser atacadas pelos compostos orgânicos em solução aquosa. Todos os ensaios foram realizados à temperatura de 25 oC, empregando pressão de filtração de 4 atm. Os compostos orgânicos foram detectados por várias técnicas, principalmente cromatografia gasosa e líquida, sequenciada por espectrometria de massas. Para acompanhar o envelhecimento das membranas, em seis meses de uso, foi empregada microscopia de força atômica, através da medição de porosidade e de rugosidade superficiais. Em termos médios, nas três faixas de concentrações testadas, o metil paration foi o composto mais eficientemente removido pelas membranas em todos os testes realizados, com 59,82 % de rejeição pela membrana UE-50, 43,97 % pela membrana XN-40 e 56,12 % pela TS-80. O TCE foi rejeitado 28,42 %, 23,87 % e 21,42 % pelas membranas UE-50, XN-40 e TS-80, respectivamente. O naftaleno, foi rejeitado 20,61 %, 14,85 % e 12,63 % pelas membranas UE-50, XN-40 e TS-80, respectivamente. Para o carbofurano, a percentagem de rejeição pelas membranas UE-50, XN-40 e TS-80 foi, respectivamente, de 4,51 %, 4,88 % e 2,92 %. Dentre todas as membranas testadas, a membrana de polisulfona UE-50, de ultrafiltração, produziu a melhor eficiência na rejeição de metil paration, tricloroetileno e naftaleno, com 59,82 %, 28,43 % e 20,61 % de rejeição, na ordem. A membrana de poliamida-uréia TS-80, de nanofiltração, proporcionou maior rejeição (56,12 %) que a membrana de poliamida XN-40, de nanofiltração (43,97 %), para o metil paration. Ao contrário, a membrana XN-40 mostrou uma rejeição maior (23,87 %) que a TS-80 para o tricloroetileno (21,42 %). Para o naftaleno, a membrana XN-40 também mostrou uma rejeição (14,85 %) maior que a TS-80 (12,63 %). A eficiência de rejeição do carbofurano foi a menor de todos os compostos ensaiados, independente da membrana. Se for assumido que a membrana de ultra deverá ser seguida pela de nanofiltração, a eficiência conjunta UE-50 + XN-40 será, em termos médios, para o naftaleno, carbofurano, tricloroetileno e metil paration, respectivamente, 32,24%, 9,19%, 45,60% e 77,44%. Para o conjunto UE-50 + TS-80 será de: 30,64%, 7,29%, 43,92% e 83,51%, não havendo diferenças estatisticamente significantes entre os dois conjuntos. Nos testes de pré-tratamento por oxidação do carbofurano, observou-se a formação do carbofurano hidrolisado e mais dois sub-produtos principais, SP-1 e SP-2, que foram rejeitados, 47,85 % e 92,80 %, respectivamente, pela membrana XN-40. Na verificação das perdas das características morfológicas pelo uso prolongado das membranas, sob ataque de compostos orgânicos em baixa concentração ("envelhecimento") verificou-se que a rugosidade (0, 3 e 6 meses) e a porosidade (0, 3 e 6 meses) foram consideravelmente alteradas. A porosidade da membrana XN-40 aumentou 42,86% e a da membrana TS-80 aumentou 34,57%, quando imersas por 3 meses. A rugosidade das membranas XN-40 e TS-80 nos testes de imersão por 3 meses, aumentou 5,37% e 291% respectivamente. Nos testes de imersão em 6 meses, o aumento da porosidade das membranas XN-40 e TS-80 foi de 29,67% e 18,52% respectivamente, enquanto que a rugosidade aumentou 25,27% e 155% para as mesmas. Conclui-se que membranas de nanofiltração poliméricas necessitam de prétratamentos para rejeitar, com segurança, e colocar dentro dos padrões de potabilidade, águas contaminadas com os compostos orgânicos tipo testados e que seu uso prolongado irá afetar as suas características de rejeição dos contaminates.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo aborda a relação cinema e identidade cultural através da análise do cinema chileno da década de 1990-2000, estabelecendo como foco de pesquisa os cineastas como mediadores culturais, que transitam pelos diferentes mundos e submundos do país, contribuindo para a construção e reconstrução da identidade chilena durante o período da transição democrática. Acolhendo a proposta teórico metodológica de Gilberto Velho (1999, 2001), foram estudadas as trajetórias de sete cineastas chilenos inseridos no seu contexto histórico, indo além da representação cinematográfica. A identidade chilena observada e construída pelos cineastas é um processo aberto, ressaltando a diversidade de traços identitários do país do final do século XX e início do XXI, que falam de uma multiplicidade de matrizes culturais. Coexistem, assim, o urbano, o rural, o insular, o barroco, o racionalista, o moderno e o tradicional, o culto e o popular e o massivo, registrando uma identidade híbrida que admite a valorização do local e o resgate de um imaginário próprio com referentes da memória coletiva e da memória nacional, no tempo presente com uma perspectiva do futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste estudo são discutidos alguns aspectos relacionados à escolha da primeira linguagem de programação em currículos de ciência da computação, com interesse especial em Pascal e Java. A primeira linguagem é amplamente adotada para ensinar programação aos novatos, enquanto a segunda está ganhando popularidade como uma linguagem moderna e abrangente, que pode ser usada em muitas disicplinas ao longo de um curso degraduação em computação como ferramenta para ensinar desde recursos básicos de programação até tópicos mais avançados. Embora vários problemas quanto ao ensino de Java, com a primeira linguagem de programação, possam ser apontadas, consideramosque Java é uma boa escolha, visto que (a) oferece apoio a importantes questões conceituais e tecnológicos e, (b) é possível contornar algumas complexidades da linguagem e da plataforma Java para torná-las mais adequadas à alunos iniciantes. Além disso, considerando a grande popularidade de Pascal nos currículos de cursos de computação, uma eventual adoção de Java conduz à outro problema: a falta de professores aptos a lecionar programação orientada a objetos. Sugerimos que este problema de migração de Pascal para Java seja enfrentado através de smplificação do ambiente de desenvolvimento de programas, uso de um pacote com classes que facilitam a entrada e saída, e o desenvolvimento de um catálogo comparativo de programas implementados em ambas as linguagens. Neste estudo também é apresentado o JEduc, um IDE muito simples com o objetivo de dar suporte ao ensino da linguagem de programação orientada a objetos Java aos novatos. Oferece componentes desenvolvidos em Java que integram edição, compilação e execução de programas Java. Além das funcionalidades comuns a um IDE, JEduc foi desenvolvido para gir como uma ferramente pedagógica: simplifica a maioria das mensagens do compilador e erros da JRE, permite a inserção de esqueletos de comandos, e incorpora pacotes especiais para esconder alguns detalhes sintáticos e semânticos indesejáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo investiga a inter-relação entre a fala do personagem Radicci (e de sua família), criação do cartunista, humorista e radialista caxiense Carlos Henrique Iotti, e a fala proveniente do contato do imigrante italiano com o novo meio, na região de Caxias do Sul, Rio Grande do Sul, tanto no meio urbano, quanto no rural. O objetivo geral da pesquisa, a influência do Radicci sobre as relações lingüísticas do italiano em contato com o português na área de estudos, se desdobra em quatro pontos essenciais: (a) componente lingüístico: em que medida a fala do Radicci reflete a fala do colono ítalo-brasileiro, já que se concebe o personagem como um símbolo representativo desse elemento humano característico da região?; (b) componente atitudinal: como os falantes da região reagem aos traços lingüísticos da fala do Radicci, ou seja, que atitudes lingüísticas são reforçadas ou inibidas na recepção do personagem?; (c) componente de identidade: no caso de haver uma identificação ou não com o personagem, como isso repercute sobre a questão da identidade ítalo-brasileira?; (d) componente da situação bilíngüe: considerando os itens (a), (b) e (c), em que medida o Radicci contribui para a manutenção ou substituição lingüística das variedades do italiano em contato com o português na região de Caxias do Sul? O estudo, portanto, se desenvolve no âmbito de pesquisas do “bilingüismo e línguas em contato”, abordando tópicos como atitudes lingüísticas, identidade, preconceito lingüístico, manutenção ou substituição da língua minoritária. Do ponto de vista teórico-metodológico, o estudo desses aspectos tem por base a perspectiva da nova Dialetologia Pluridimensional, como é concebida por Harald Thun nos atlas contatuais do Uruguai e do Paraguai. Os resultados do estudo nos levaram a constatar que o Radicci encontra grande aceitabilidade entre os informantes da pesquisa, no que tange ao contato e à recepção do personagem. Os aspectos mencionados como deflagradores dessa repercussão positiva vão desde o humor até o grande valor do personagem como símbolo representativo da região de Caxias do Sul, com as peculiaridades próprias da cultura italiana da RCI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O saibro é uma adição mineral utilizada na cidade de Belém-Pa com o objetivo de proporcionar plasticidade às argamassas, sendo utilizado indiscriminadamente e sem critérios técnicos. A ocorrência de fissuras apresenta-se como uma das mais freqüentes manifestações patológicas, sendo muito comum o meio técnico local apontar como principal causa a elevada permeabilidade destas argamassas. Devido ao desempenho insatisfatório apresentado e à ausência de pesquisas na área, tem sido comum a substituição deste material por aditivos químicos plastificantes nas grandes empresas de construção civil. Este trabalho tem o objetivo de caracterizar os materiais e identificar os traços mais utilizados, para o estudo do comportamento das argamassas para revestimentos externos desta cidade. Desta forma, para avaliar o comportamento de argamassas produzidas com saibro e com aditivo incorporador de ar, bem como a influência dos dois tipos de cimento mais usados na região, a análise das argamassas foi realizada através de ensaios no estado fresco (consistência, retenção de água e massa específica) e no estado endurecido (resistência mecânica, massa específica, absorção de água por imersão e por capilaridade). Na busca de alternativas que melhorem o desempenho destas argamassas, também utilizou-se a adição de 10% de sílica ativa, em relação à massa de cimento, em uma argamassa com saibro e em outra argamassa com aditivo químico. Os resultados obtidos indicam que existe influência significativa do tipo de cimento empregado e do teor de saibro, em relação à quantidade total de agregado. A substituição do saibro pelo aditivo químico, assim como a adição de sílica ativa, nem sempre apresentaram bons resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O leite é um dos mais importantes produtos agrícolas em todo o mundo. O mercado internacional de lácteos é dominado pela União Européia, Nova Zelândia, Estados Unidos e Austrália, mas alguns países em desenvolvimento como Brasil e México são também importantes importadores. Sustentação de preços, aquisições governamentais e restrições externas são instrumentos de políticas comuns neste setor. Na Rodada do Uruguai do GATT, em 1986, pela primeira vez os países membros resolveram eleger o comércio agrícola e as políticas domésticas como prioridade. Nesse sentido, ajustes devem ocorrer tanto no mercado internacional quanto nos mercados domésticos dos produtos lácteos visto que a relação entre políticas agrícolas domésticas e comércio mundial de produtos agrícolas é um fato. Neste estudo, o setor leiteiro é analisado da perspectiva das políticas, da produção e do comércio. Além disso, são discutidos também os efeitos da intervenção governamental no setor bem como os impactos da Rodada do Uruguai no mercado internacional e no setor leiteiro do Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação está inserida nos estudos relativos ao conforto ambiental, tendo como foco principal a melhoria do desempenho da edificação, causando, portanto, maior satisfação ao usuário. Este trabalho teve o objetivo de analisar a intervenção na estrutura física de uma escola do ensino fundamental, da rede pública municipal da zona urbana de Feira de Santana, Bahia, que foi feita visando melhorar o conforto ambiental da edificação adequando a estrutura física às necessidades dos usuários. Para tanto foi desenvolvido projeto de intervenção de baixo custo e aplicável em outras escolas. Os métodos aplicados para o presente estudo foram: questionários, entrevistas, observações de traços físicos e levantamentos físicos, através de medições. Os resultados obtidos com o levantamento dos dados serviram como referencial para a elaboração do projeto de intervenção. Dentre os principais resultados obtidos com a intervenção está o da melhoria do índice de satisfação dos usuários das salas de aula; 50% das pessoas encontravam-se insatisfeitas com o desconforto do ambiente. Após a intervenção o número de insatisfeitos caiu para 35%, comprovando que houve melhoria no ambiente escolar, embora as condições de conforto não estejam totalmente contempladas. Na sala da secretaria, que sofreu uma intervenção diferenciada em relação às salas de aula, o índice de pessoas insatisfeitas caiu de 40% para 22%, caracterizando o ambiente como próximo do conforto térmico. Os resultados do projeto de intervenção foram importantes, considerando-se o objetivo de dar continuidade às pesquisas relacionadas ao conforto ambiental nas escolas da rede pública municipal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Acredita-se que no futuro as redes de telecomunicação e dados serão integradas em uma só rede, baseada na comutação de pacotes IP. Esta rede deverá oferecer serviços com qualidade (QoS) para as aplicações atuais e futuras. Uma das tecnologias que deverá ser adotada no núcleo desta nova rede é MPLS. MPLS introduz o conceito de switching (comutação) no ambiente IP e também permite que seja implementada a Engenharia de Tráfego, otimizando sua utilização através do roteamento baseado em restrições. Junto com MPLS outras arquiteturas para fornecimento de QoS, como Serviços Integrados e Serviços Diferenciados, serão utilizadas. Entretanto, como nenhuma delas atende a todos os requisitos para garantia de QoS fim a fim e levando-se em consideração o fato de a Internet ser uma rede heterogênea, surge a necessidade de um framework que permita a interoperabilidade das diferentes arquiteturas existentes. Neste trabalho é proposto um modelo de integração que fornece garantias de QoS fim a fim para redes que utilizam tanto Serviços Integrados como Serviços Diferenciados através do emprego de uma infra-estrutura baseada em MPLS e Serviços Diferenciados. A aplicabilidade do modelo foi testada no simulador ns2 e os resultados são apresentados neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho realizado conjuga informações de preparação e caracterização de materiais à base de sílica, com avaliação de possível aplicação potencial na área de química analítica ambiental. As sílicas organofuncionalizadas foram preparadas segundo 2 métodos: grafting e sol-gel. Os 4 sólidos obtidos por grafting diferem essencialmente na natureza da esfera de coordenação em torno do centro metálico (átomo de zircônio), enquanto que os 2 sólidos obtidos pelo processo sol-gel são sólidos híbridos, contendo ligantes indenil, grupos silanóis e etóxidos na superfície, diferindo entre si pela presença de centro metálico. Os teores de metal, determinados por RBS, nas sílicas organofuncionalizadas ficaram em torno de 0,3 % para os sólidos preparados por grafting e 4,5 %,no caso, do sólido preparado por sol-gel. A análise por DRIFTS confirmou a presença dos ligantes orgânicos e, ainda, grupos silanóis residuais nos adsorventes preparados por grafting. A capacidade de adsorção das sílicas organofuncionalizadas foi avaliada frente a duas famílias de compostos: HPAs e pesticidas organoclorados. A identificação e quantificação dos HPAs foi conduzida através de cromatografia gasosa com detector seletivo de massas. Os resultados da capacidade de adsorção para os 16 HPAs prioritários não foram quantitativamente considerados satisfatórios, em parte devido à dificuldade de solubilidade em água. A determinação quantitativa da eficiência dos adsorventes sólidos, na pré-concentração/extração dos pesticidas organoclorados, foi realizada através da cromatografia gasosa com detector de captura de elétrons. Os resultados de recuperação, para os compostos organoclorados: heptacloro epóxido, dieldrin e endrin foram considerados satisfatórios e em concordância com valores encontrados com o adsorvente comercial LC-18. O lindano apresentou boa recuperação especificadamente nos adsorventes preparados por sol-gel. De uma forma geral, os resultados indicam a possibilidade de utilização futura dos adsorventes sólidos preparados em protocolos de pré-concentração/extração de organoclorados a nível de traços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comunidade de Colônia Nova, distrito do município de Aceguá, inserido na região da campanha do Estado do Rio Grande do Sul, na fronteira com o Uruguai, apresenta características distintivas, com traços culturais diferenciados e indicadores sócio-econômicos melhores que os normalmente encontrados nas regiões vizinhas. A pesquisa teve como objetivo central identificar as razões que levaram a comunidade a atingir o atual estágio de desenvolvimento, e compreender o papel e a influência de alguns fatores. Revendo estudos anteriores, principalmente “Ética Protestante” de Max Weber e utilizando informações obtidas junto à população residente na comunidade, objeto do estudo, foi possível identificar e compreender razões, que tornam o modelo de desenvolvimento bem sucedido, que a comunidade apresenta. Dentre tais razões, destacam-se: devoção ao trabalho, crença religiosa e suas conseqüências, o nível cultural, valorização da tecnologia e inovação, e uma forte ênfase para a vida familiar e comunitária. O trabalho de pesquisa baseou-se em abordagem qualitativa, utilizando entrevistas semi-estruturadas, observações e anotações de visitas de campo, bem como dados quantitativos secundários.