999 resultados para Filtração profunda. Mecanismos de retenção. Exclusão pelo tamanho. Deposição. Modelagem analítica
Resumo:
Este trabalho discute o conceito de exclusão social e suas implicações na educação, tomando como fundamento teórico o pensamento de Karl Marx. Seu objetivo é possibilitar embasamento conceitual sólido para as pesquisas no campo da educação, bem como a articulação de uma rede categorial adequada para a compreensão e intervenção nos fenômenos educativos. Inicialmente, é feita uma exposição do conjunto da obra de Marx, sob a perspectiva temática da exclusão. Em seguida, é investigado o fenômeno da exclusão social na literatura contemporânea, tanto nas ciências sociais, em geral, quanto na educação, em particular. Como resultado da pesquisa, concluiu-se que: 1) o círculo exclusão/inclusão é constitutivo necessário da lógica do capital, como condicionante de seu processo; 2) o conceito exclusão pode ter valor analítico, dentro de uma rede categorial complexa, como instrumento de reflexão do aparecer imediato do sistema do capital.
Resumo:
A memória pode ser definida como o armazenamento e a evocação de uma informação aprendida. Sendo um processo dinâmico, requer a ativação de diversos sistemas para que a informação adquirida seja consolidada. O ATP é um importante neurotransmissor que, após a sua liberação e conseqüente ativação de seus receptores específicos, precisa ser inativado. Esta remoção do ATP da fenda sináptica ocorre através de sua hidrólise promovida pelas ectonucleotidases. Como um dos produtos da hidrólise do ATP, a adenosina é considerada um potente neuromodulador e exerce suas ações através de receptores específicos com ações excitatórias (A2A e A2B ) ou inibitórias (A1 e A3). Vários trabalhos já demonstraram a participação do sistema purinérgico nos processos relacionados a memória da tarefa da esquiva inibitória. Estudos realizados em nosso laboratório mostraram a participação das ectonucleotidases sinaptossomais de hipocampo, córtex entorrinal e córtex parietal na consolidação da memória para esquiva inibitória. No entanto, existem poucos estudos a respeito do sistema purinérgico nos mecanismos de consolidação da memória em outras regiões cerebrais, tais como o córtex cingulado anterior (CA) e posterior (CP) e a área pré-central medial (FR2). Portanto, na primeira parte deste estudo, avaliamos as atividades ectonucleotidásicas em sinaptossomas de CA, CP e FR2 de ratos submetidos à tarefa de esquiva inibitória. Nossos resultados demonstraram um aumento na hidrólise de ATP em sinaptossomas de FR2 e CA; e na hidrólise de ADP em sinaptossomas de FR2 e CP. Este aumento na hidrólise de ATP e ADP ocorreu devido ao choque administrado na tarefa, já que o grupo de animais que não recebeu choque não apresentou alterações na hidrólise de ATP e ADP. Este efeito observado provavelmente não está associado à consolidação da memória, mas a mudanças neuroquímicas e neurohumorais induzidas pelo estresse após o choque. Além disso, foi observado um aumento relacionado ao aprendizado na atividade ATPásica e ADPásica em CP e CA, respectivamente. Estes resultados sugerem fortemente que estas enzimas participam da consolidação da memória em CP e CA. O aumento na hidrólise de ATP e ADP sugere um possível aumento na concentração de adenosina nestas regiões. Portanto, na segunda parte deste estudo, verificamos a influência de agonistas e antagonistas de receptores de adenosina nas memórias de curta (STM) e de longa (LTM) duração na tarefa de esquiva inibitória. Então, neste estudo administramos intrafusões de análogos de adenosina em CP, imediatamente após o treino em esquiva inibitória. Os resultados demonstraram que a intrafusão de DPCPX, um antagonista de receptores A1, em CP, na concentração de 50 nM, aumentou significativamente a retenção da tarefa em ambas STM e LTM. Além disso, a administração de CPA, um agonista de receptores A1 de adenosina, não alterou ambas STM e LTM nas concentrações testadas. Portanto, este estudo sugere que os receptores A1 exercem uma modulação inibitória em CP tanto na STM quanto na LTM para o aprendizado de esquiva inibitória. A regulação dos níveis de ATP e adenosina pelas ectonucleotidases em CP, CA e FR2 controlaria a ativação dos receptores A1 nestas estruturas, podendo exercer efeitos modulatórios na consolidação da memória nestas estruturas.
Resumo:
A citopatologia bucal é um método de diagnóstico baseado em células obtidas por raspagem. Com a finalidade de constatar quantitativamente as alterações celulares ocasionadas pelo fumo em mucosa bucal clinicamente normal, durante a Campanha de Combate ao Câncer de Novo Hamburgo/RS de 2000, foram selecionados todos os indivíduos homens, fumantes e não-fumantes, acima de 40 anos e sem lesão bucal aparente. O processo de seleção resultou em um total de 13 fumantes e 9 não-fumantes. Os sítios bucais estudados foram: vermelhão do lábio inferior, porção anterior do soalho bucal e borda da língua. De cada sítio estudado foram obtidos dois esfregaços, sendo o primeiro submetido à técnica de impregnação pela prata (AgNORs) para avaliação quantitativa via IMAGELAB® e o segundo ao método de Papanicolaou Modificado para confirmação de normalidade. Através do teste estatístico Mann-Whitney (p=0,05) foram obtidos os seguintes resultados: (1) em soalho, o número de AgNORs por núcleo foi superior em fumantes comparado ao grupo não-fumantes; (2) em língua, a relação núcleo/citoplasma em fumantes é maior em comparação aos não-fumantes; (3) em lábio, o grupo com média acima de 3 AgNORs/núcleo apresentou área nuclear maior. Considerando que cada sítio possui comportamento específico frente às injúrias ocasionadas pelo fumo, concluímos que as referências quantitativas de relação núcleo/citoplasma e número de AgNORs/núcleo são eficazes para o controle de alterações celulares prévias à lesão bucal visível.
Resumo:
Este trabalho descreve os principais mecanismos financeiros de estímulo às exportações disponíveis no Brasil e estima o impacto dos financiamentos sobre a rentabilidade das empresas. Os mecanismos financeiros de estímulo às exportações disponíveis são quatro: a) financiamentos com base em contratos de câmbio; b) o Programa de Financiamento às Exportações – PROEX; c) o Programa BNDES-Exim ; e d) o Seguro de Crédito à Exportação – SCE. Os financiamentos com base em contrato de câmbio são realizados com recursos privados captados no exterior e operacionalizados de três diferentes formas: a) Adiantamento sobre Contrato de Câmbio - ACC; b) Adiantamento sobre Cambiais Entregues – ACE; e c) Trava de Câmbio. Nos dois primeiros instrumentos, o exportador recebe um adiantamento com base no contrato de câmbio, enquanto que no caso da trava de câmbio o exportador empresta a importância do contravalor em moeda nacional do contrato de câmbio de exportação ao banco. Por meio da comparação das taxas de juros cobradas no mercado doméstico com as taxas de juros dos financiamentos à exportação, próximas às taxas internacionais, para cada uma das modalidades de financiamento, é estimado, em termos globais, o ganho de arbitragem que as empresas envolvidas com as exportações brasileiras obtêm, utilizando os financiamentos a eles disponibilizados.
Resumo:
O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.
Resumo:
Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.
Resumo:
Acredita-se que no futuro as redes de telecomunicação e dados serão integradas em uma só rede, baseada na comutação de pacotes IP. Esta rede deverá oferecer serviços com qualidade (QoS) para as aplicações atuais e futuras. Uma das tecnologias que deverá ser adotada no núcleo desta nova rede é MPLS. MPLS introduz o conceito de switching (comutação) no ambiente IP e também permite que seja implementada a Engenharia de Tráfego, otimizando sua utilização através do roteamento baseado em restrições. Junto com MPLS outras arquiteturas para fornecimento de QoS, como Serviços Integrados e Serviços Diferenciados, serão utilizadas. Entretanto, como nenhuma delas atende a todos os requisitos para garantia de QoS fim a fim e levando-se em consideração o fato de a Internet ser uma rede heterogênea, surge a necessidade de um framework que permita a interoperabilidade das diferentes arquiteturas existentes. Neste trabalho é proposto um modelo de integração que fornece garantias de QoS fim a fim para redes que utilizam tanto Serviços Integrados como Serviços Diferenciados através do emprego de uma infra-estrutura baseada em MPLS e Serviços Diferenciados. A aplicabilidade do modelo foi testada no simulador ns2 e os resultados são apresentados neste trabalho.
Resumo:
Monitorar significa, de forma genérica, acompanhar e avaliar dados fornecidos por aparelhagem técnica. Quando se fala em monitoramento de uma rede, não se está fugindo desta idéia. Para monitorar a rede são utilizados mecanismos para coletar dados da mesma, sendo estes dados posteriormente avaliados. O monitoramento da rede é, sob o ponto de vista da administração da mesma, uma atividade indispensável. Através desta operação é possível obter conclusões sobre a “saúde” da rede. A busca e análise dos dados da rede podem ser feitas com vários enfoques, cada um buscando cercar uma situação específica, onde entre outros, destacam-se a segurança e a carga da rede. A proposta de fazer uso de algum recurso que permita monitorar a rede fica cada vez mais importante, à medida que as redes têm crescido em tamanho e importância para as organizações. Atualmente, é comum se falar em redes locais com centenas e até milhares de computadores conectados. Associada a esta realidade existe ainda a conexão com a Internet, que faz com que o número de máquinas em contato, suba para valores gigantescos. Os usuários de computador que estão conectados a uma rede, podem estar, fisicamente, muito longe dos olhos do administrador da mesma. Com isso, este sente-se obrigado a utilizar ferramentas que permita monitorar a rede, uma vez que não tem controle sobre os usuários. Sob o ponto de vista da segurança, a preocupação está em verificar a possível ocorrência de ataques ou detectar problemas nas configurações dos mecanismos de segurança implementados. Já quanto à carga da rede, o enfoque é monitorar os tipos de acessos e serviços utilizados, a fim de identificar atividades supérfluas que possam estar sobrecarregando a rede. O presente trabalho tem por objetivo estudar meios para construir uma ferramenta que permita verificar, de forma on-line, as conexões TCP/IP que estão ativas na rede local, seja uma conexão entre duas máquinas da rede local, ou com a Internet, possibilitando visualizar os serviços que estão sendo acessados e a quantidade de tráfego gerada pelos computadores. Ao final será construído um protótipo a fim de validar o estudo feito. O estudo parte da análise do padrão de rede Ethernet, que é ambiente a ser utilizado neste estudo. Na seqüência serão estudadas as características dos principais protocolos da família TCP/IP, que é o conjunto de protocolo utilizado pela grande maioria das redes, inclusive pela maior delas, que é a Internet. Em uma fase posterior, serão estudadas as formas de se fazer o monitoramento em uma rede Ethernet e as ferramentas de monitoramento existentes. Na seqüência, os detalhes do protótipo para monitorar conexões TCP/IP são apresentados bem como os resultados dos testes de validação do mesmo.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
São apresentados os aspectos teóricos, práticos e bibliográficos envolvidos no desenvolvimento da tese de doutorado intitulada Modificação estrutural de bentonitas nacionais: caracterização e estudos de adsorção. O trabalho consistiu no desenvolvimento de um material adsorvente a partir de bentonitas, do tipo montmorilonitas, modificadas estruturalmente com o objetivo de aumentar sua capacidade de adsorção de poluentes, orgânicos e inorgânicos. O estudo visa incrementar o valor agregado deste recurso mineral e insere-se na área de tratamento de efluentes líquidos usando adsorventes não tradicionais, eficientes e de baixo custo em substituição ao carvão ativado ou às resinas de troca iônica. Foram estudadas as propriedades físicas e químicas; distribuição de tamanho de partículas, área superficial, potenciais eletrocinéticos, capacidade de troca catiônica, composição mineralógica, morfologia superficial e espaçamento basal, bem como as propriedades adsorptivas dos argilominerais não tratados e modificados, não modificadas e pilarizadas respectivamente. Também são discutidos os mecanismos de adsorção envolvidos e o desenvolvimento de um reator contínuo (adsorção em flocos) e de separação sólido/líquido. As modificações estruturais dos argilominerais foram realizadas via homoionização com cloreto de cálcio e posterior intercalação com compostos orgânicos com ação quelante de metais. A FENAN, bentonita obtida pela intercalação com Orto Fenantrolina (OF), foi a que apresentou melhor viabilidade técnica em termos de adsorção, adsorção/dessorção, floculação e de acumulação de poluentes na forma floculada e não floculada. Adicionalmente os estudos de reversibilidade da intercalação revelaram a alta estabilidade da OF na FENAN, em soluções fortemente ácidas, onde aproximadamente 90% da OF permanece ligada à superfície da argila. A quantidade de OF adsorvida na forma de unidades micelares foi de 112 mg por grama de bentonita a pH 8,5 ± 0,5. A caracterização das bentonitas, via difração de Raios X, análise térmica, microscopia eletrônica de varredura e por microscopia de força atômica, revelou que as FENAN possuem um comportamento estrutural muito estável ao longo da seqüência de adsorção/dessorção e que após a adsorção de poluentes inorgânicos, o quelato metálico formado apresenta alta estabilidade dentro da estrutura da organobentonita. A capacidade de acumulação alcançada nas FENAN foi de 110 mg de Cu/g de bentonita, valor superior à de diversos materiais adsorventes alternativos propostos em outros trabalhos similares. Os estudos de acumulação das FENAN floculadas – FENANFLOC, indicaram que a presença de floculante, na quantidade utilizada, não afeta significativamente a capacidade de remoção das bentonitas modificadas. Este comportamento apresentado, permitiu o desenvolvimento do Reator Expandido de Flocos Adsorventes (REFA), cujas características e parâmetros operacionais são discutidos em detalhe. Finalmente, os resultados são discutidos em termos dos fenômenos interfaciais envolvidos e dos potenciais práticos deste novo adsorvente e da nova técnica de adsorção em flocos no REFA.
Resumo:
A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.
Resumo:
Com a crescente representatividade do setor de serviços na economia mundial, se torna cada vez mais necessária a pesquisa e a implementação de modelos que abordem as singularidades dos serviços em relação aos outros setores da economia. O presente trabalho tem por objetivo aplicar um plano de ações voltado à estratégia de retenção de clientes, identificando e abordando os componentes a serem implementados, pelo qual se obtenha uma vantagem competitiva sustentável no longo prazo, por meio de um atendimento diferenciado e pelo fortalecimento de uma cultura de serviços baseada no relacionamento com clientes e colaboradores. O plano de ações proposto está sendo implementado em uma empresa de medicina de grupo com atuação local, e por isso, além de se basear em vasta fundamentação teórica, foram consideradas as características da empresa e do mercado onde atua. Com os resultados advindos da validação parcial do plano de ações, uma vez que ainda faltam etapas a avançar, pode-se concluir que os primeiros passos em direção à retenção de clientes foram alcançados.
Resumo:
Cada vez mais muitos processos industriais convencionais de separação, tais como destilação, centrifugação e extração com solventes, entre outros, estão sendo substituídos pelos processos de separação por membranas em virtude desses apresentarem vantagens em relação aos processos convencionais, além de serem considerados uma tecnologia limpa. Entre estas vantagens pode-se citar a economia de energia, pois não envolvem mudança de fase; a possibilidade de processamento de substâncias termolábeis, pois podem operar à temperatura ambiente; a maior seletividade; a facilidade de scale – up, pois são modulares e não extensivos em mão de obra, entre outros. Uma característica limitante destes processos é a existência de uma camada de elevada concentração de partículas ou moléculas que se forma próxima à superfície da membrana e que ocasiona uma redução no fluxo permeado, podendo modificar as características de retenção da membrana. Este fenômeno é conhecido como polarização por concentração. O entendimento dos mecanismos de polarização é considerado de grande importância neste campo e o estudo e validação de modelos matemáticos preditivos torna-se necessário para se obter sucesso na aplicação dos processos com membranas no meio industrial O objetivo geral deste trabalho consiste na análise teórico-experimental do processo de microfiltração tangencial com suspensão aquosa de partículas de sílica. O objetivo específico é a utilização de dados experimentais para a estimação de um parâmetro do modelo matemático que descreve o perfil de concentração na superfície da membrana ( membrana). A configuração tangencial implica que a alimentação, contendo as partículas a serem removidas ou concentradas, flui paralelamente à superfície da membrana reduzindo, assim, o fenômeno de polarização por concentração. Os experimentos foram efetuados em uma unidade de bancada de microfiltração tangencial, também conhecido como fluxo cruzado, em um módulo para membrana plana com canal de escoamento retangular sob condições de escoamento laminar. Os seguintes parâmetros foram variados durante os experimentos: pressão transmembrana, velocidade tangencial e concentração de partículas de sílica Os dados experimentais foram utilizados em uma modelagem matemática, baseada nas equações fundamentais da mecânica dos fluidos e da transferência de massa, que considera as propriedades físicas da suspensão, viscosidade dinâmica e difusividade mássica, variáveis com a concentração de sílica para se estimar a concentração máxima de sílica junto à superfície da membrana. Esta modelagem engloba os parâmetros operacionais, bem como as características da membrana nesta única variável. Com a finalidade de se verificar como a concentração máxima sobre a membrana é afetada pelas condições operacionais e, conseqüentemente, como esta afeta o fluxo permeado, a concentração máxima sobre a superfície da membrana é apresentada em função das condições operacionais variadas durante os experimentos de microfiltração. Finalmente, após a estimação desta variável, pôde-se concluir que ela é influenciada pelas condições operacionais típicas do processo de microfiltração tangencial, tais como velocidade tangencial de escoamento, pressão através da membrana e concentração da alimentação.
Resumo:
A investigação, inscrita no campo das ciências humanas, problematiza as categorias inclusão/exclusão no que refere ao contexto escolar. Estar incluído é apenas estar matriculado e freqüentar a escola? Mais do que estar no grupo é necessário o sentimento de pertença. Sem este, dificilmente o sujeito se sentirá integrado aos demais. Meu recorte de pesquisa vai enfocar a Exclusão Branda do Homossexual no Ambiente Escolar nos primeiros anos do século XXI, uma era de muitos direitos, especialmente em Porto Alegre, capital do Rio Grande do Sul, que já vinha há quatorze anos de uma experiência de administração política de esquerda, naquilo que diz e no modo como opera em relação à educação. Trazemos para as Universidades, as ruas e os parques da cidade o Fórum Mundial da Educação. Povoamos de juventude de todas as partes do mundo, a orla do Guaíba, do Gasômetro ao Portal do Sol no Parque da Harmonia. O mundo esteve em Porto Alegre em janeiro de 2003. Sem dúvida o discurso político neste momento é o da inclusão. É o contexto do ”politicamente correto” que chegou até nós, “emergentes“, como subproduto cultural dos países “emergidos” Meu objeto de pesquisa é o alcance da operacionalização dos temas transversais (temáticas formadoras de cidadania) referentes aos direitos humanos que deveriam perpassar por todas as matérias do ensino fundamental e do médio, no que se refere à livre orientação sexual. O discurso político das liberdades individuais, a mudança nos costumes, na legislação, a implantação do Estatuto da Criança e do Adolescente (ECA – 2000) e os anos de construtivismo baseado na Epistemologia genética de Piaget (1976) e nas teorias de educação libertadora de Paulo Freire 1, modificaram, no espaço escolar o preconceito contra os jovens que preferem namorar ou “ficar” com pessoas do mesmo sexo? Este estudo não tem como foco a identidade homossexual. Porém, será necessário atravessar alguns milênios e invadir o campo da História, da Sociologia, da Filosofia e da Antropologia, para entender porque a Modernidade, uma época de tantos direitos, mantém esse preconceito sobre a questão homossexual. Relacionar este entendimento com a concepção do sujeito “normal” e seus desviantes, a influência do Higienismo e a escola como instituição normatizadora constituem o campo teórico desta investigação. Trata-se de uma pesquisa de caráter histórico, que se serve de uma estratégia analítica inspirada nas proposições de poder/saber, subjetividade de Michel Foucault e na obra filosófica de Gilles Deleuze, embora não exclusivamente, para a mediação das histórias de vida de homossexuais mais velhos fazendo o contraponto com a análise do contexto das escolas visitadas .