983 resultados para Efeitos de redes


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo objetiva identificar na vegetação campestre, descrita por espécies e tipos funcionais de planta (TFs), respostas a diferentes intensidades de pastejo e níveis de adubação nitrogenada. O experimento, conduzido em Eldorado do Sul, RS, Brasil, avaliou efeitos de adubação nitrogenada (0, 30, 100, 170 e 200 kg N/ha) e de oferta de forragem (4,0; 5,5; 9,0; 12,5 e 14,0 kg de matéria seca de forragem verde por 100 kg de peso vivo de bovinos por dia). As 14 parcelas experimentais foram pastejadas em ciclo de pastejo de 3 dias com 35 dias de intervalo. O levantamento da vegetação, usando quadros de 0,25m2, foi realizado em dois períodos: Na primavera (novembro de 1999) e no verão (janeiro de 2000), foram descritos três quadros e dois quadros por parcela, respectivamente. A descrição da estrutura da vegetação envolveu a identificação de todas as espécies presentes em cada quadro e estimativa de sua abundância-cobertura. Cada espécie identificada no quadro foi então descrita considerando 21 atributos macromorfológicos qualitativos e quantitativos. A análise dos dados, através do aplicativo SYNCSA, objetivou encontrar um subconjunto ótimo de atributos de forma a maximizar a congruência ρ(D;∆), que é uma medida de correlação matricial entre a variação da vegetação (matriz de distâncias D) e do fator considerado (matriz ∆). Na análise, foram consideradas diferentes seqüências de transformação dos dados e escalas de observação. TFs foram identificados como sendo populações de plantas idênticas quanto aos atributos do subconjunto ótimo. A congruência máxima para o fator adubação nitrogenada foi de 0,66 quando os quadros em cada parcela experimental foram agregados e a vegetação foi descrita por TFs definidos pelos seguintes atributos: formato da lâmina, altura da biomassa, persistência, propagação vegetativa, largura da lâmina e resistência da lâmina à tração. Para o fator oferta de forragem, a congruência máxima foi de 0,57, com os quadros também agregados, e os TFs definidos por comprimento da lâmina, altura da biomassa, formato da lâmina, comprimento da bainha, resistência da lâmina a tração, largura da lâmina, tipo de tecido dos caules aéreos e indumento da lâmina. A análise de ordenação permitiu a identificação de TFs que apresentaram respostas, em termos de abundância-cobertura, mais evidentes para cada fator. A composição da vegetação, descrita pelos TFs definidos pelo subconjunto ótimo de atributos, foi comparada entre níveis de cada fator, por análise de variância multivariada com testes de aleatorização. Foram detectadas diferenças significativas para o efeito de adubação nitrogenada (P = 0,025), sendo significativos (α = 0,05) os contrastes entre 0 e 170, 0 e 200, e 30 e 200 kg N/ha. Também foram detectadas diferenças significativas para o efeito de oferta de forragem (P = 0,002), sendo significativos (α = 0,05) os contrastes entre 4,0 e 12,5; 5,5 e 12,5; 4,0 e 9,0 % PV. Não foram significativas as diferenças entre tratamentos, para os dois fatores, quando a composição da vegetação foi descrita por espécies. Conclui-se que os atributos que são ótimos para definição de TFs para um dado fator não necessariamente o serão para outro fator, provavelmente não existindo, portanto, uma classificação de plantas em TFs que seja ótima para qualquer fator ambiental considerado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estimulação (manipulação) neonatal tem servido como modelo para observar os mecanismos pelos quais as variações no ambiente do recém-nascido podem afetar seu desenvolvimento quando adulto. Por outro lado, a separação maternal é um modelo que analisa a importância do cuidado parental para o desenvolvimento da prole. Quando adultos, ratos que foram manipulados periodicamente na infância apresentam menor reatividade ao estresse, enquanto aqueles que sofreram privação maternal periódica são mais medrosos e podem apresentar déficits de desenvolvimento e aprendizado. Este trabalho teve por objetivo investigar se a manipulação por 1 minuto ou a separação periódica por 180 minutos dos filhotes no período neonatal poderiam alterar o comportamento da mãe destes filhotes. Avaliou-se o tempo em que a mãe fica em contato com os filhotes, o tempo em que ela fica lambendo-os e a duração do comportamento de amamentação com o dorso arqueado. A duração destes comportamentos foi observada no primeiro, quinto e décimo dia após o nascimento, antes, logo após, 40 e 80 minutos após a manipulação e a separação, sendo que os filhotes foram submetidos a estes estresses durante os primeiros 10 dias pós-parto. Em conjunto, nossos resultados mostraram que tanto a manipulação por 1 minuto como a separação por 180 minutos aumentaram a duração do comportamento de lamber os filhotes nos primeiros dez dias após o parto. O aumento deste comportamento ocorreu imediatamente após o retorno dos filhotes à caixa, mas não se manteve alto e voltou ao nível do grupo controle após um período de tempo. No grupo manipulado houve uma redução do tempo em que a mãe fica junto aos filhotes logo após a manipulação, comparado aos outros grupos. Nossos resultados mostram que tanto a estimulação dos filhotes pela manipulação como a privação materna pelo afastamento prolongado provocam aumento do comportamento maternal, expressado pelo comportamento de lamber, logo após o retorno dos filhotes ao ninho. As alterações comportamentais ou de responsividade ao estresse no adulto, induzidas por eventos ambientais durante o período neonatal (manipulação ou privação materna) podem ser causadas pelo efeito da intervenção direta sobre os filhotes ou pela alteração do comportamento maternal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em um ambiente em que as mudanças são constantes, as organizações se voltam, cada vez mais, para a adoção de estratégias competitivas, implementando novos métodos de produção e distribuição dos produtos e/ou serviços, novas maneiras de se relacionar com fornecedores e clientes e novas formas de gerenciar pessoas. A flexibilização da remuneração, pela participação dos empregados nos lucros, busca o envolvimento do empregado com os objetivos organizacionais e visando à produtividade. Existem estudos sobre planos de participação nos lucros nas áreas de recursos humanos e direito, havendo uma lacuna, sobre o assunto, na área de finanças. A pesquisa buscou reunir modelos quantitativos de avaliação de empresas, existentes na área de finanças, com esta variável qualitativa. O estudo evidenciou o a performance econômico-financeira das organizações que adotam participação dos empregados nos lucros, comparativamente com aquelas que não adotam, tendo como base a avaliação por indicadores. Foi utilizada uma amostra de 134 empresas, escolhidas aleatoriamente, por sorteio, dentre uma população de 709, que compõe o banco de dados da Comissão de Valores Mobiliários - CVM. A metodologia utilizada foi de caráter exploratória quantitativa descritiva, na qual estabeleceu-se relações entre as variáveis com e sem participação, em uma série temporal de 4 anos. Os dados foram coletados nos demonstrativos contábeis das empresas da amostra e analisados através do estabelecimento de relações dentre valor e volume de distribuição de lucros, com indicadores de avaliação. Como resultados da pesquisa foi observado que são poucas, apenas 18 % do número de empresas que possuem PLR (Participação dos Empregados nos Lucros ou Resultados) e a maioria, 66 % não adotam esta forma de remuneração. Existem ainda 16% que usam PLR de forma alternada. O programa traz vantagens para a empresa pelo benefício fiscal da não inclusão na folha de pagamento. As pequenas empresas distribuem mais lucros aos empregados. Até mesmo em situações de prejuízo operacional, 29% das empresas distribuem lucros. De outro lado, os administradores recebem participação somente quando há lucros, sendo portanto, responsáveis pelos resultados da organização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos problemas teóricos mais importantes da Física de Partículas de Altas Energias é a investigação de efeitos de alta densidade na Cromodinâmica Quântica (QCD), que é a teoria que descreve as interações fortes. Tais efeitos são importantes pois determinam os observáveis em colisõesde altas energias. Em processos hadrônicos de energia suficientemente alta, espera-se a formação de sistemas densos o suficiente para que efeitos não lineares de QCD passem a ser significativos na descrição e na unitarização da seção de choque. Na descrição de processos de espalhamento de altas energias, evidências experimentais indicam que os hádrons são constituídos por partículas puntuais, as quais chamamos de pártons. Os pártons carregam uma fração x do momentum total do hádron, e são de dois tipos, quarks e glúons. Na interação entre as partículas ocorre a troca de momentum, definida como Q2. A descrição perturbativa padrão para a evolução dinâmica das distribuições de quarks q(x, Q2) e glúons g(x, Q2), pode ser dada pelas equações de evolução DGLAP, e tem obtido sucesso na descrição dos resultados experimentais para as presentes energias. Na evolução DGLAP, são considerados apenas processos de emissão, como a emissão de um glúon por um quark, o decaimento de um glúon em um par de quarks ou em um par de glúons Estes processos de emissão tendem a aumentar a densidade de pártons na região de pequeno momentum, levando a um crescimento ilimitado das distribuições partônicas para x -+ O. Assim, é esperado que o crescimento da densidade de pártons leve a interação e recombinação destas partículas, dando origem a termos não lineares nas equações de evolução. O resultado seria um processo de saturação das distribuições de pártons na região de alta energia e pequena fração de momentum. Os efeitos que dão origem à redução do crescimento das distribuições de quarks e glúons em relação a evolução linear são chamados genericamente de efeitos de sombreamento. Um dos aspectos fenomenológicosinteressantes a ser investigado no regime cinemático abordado acima é o processo Drell-Yan de alta energia, o qual consiste em processos de espalhamento pp, pA e AA com a produção de pares de léptons. Com o advento dos novos aceleradores, novos resultados experimentais estarão disponíveis na literatura relacionados com este processo. Em nosso trabalho investigamos os efeitos das correções de unitariedade em processos pp, bem como os efeitos devido a presença do meio nuclear em colisõespA e AA, nas distribuições de quarks e glúons, para a descrição da seção de choque diferencial para o processo Drell-Yan em colisõespp, pA e AA, para energias existentes nos novos aceleradores RHIC (Relativistic Heavy Ion Collider) e LHC (Large Ion Collider). Os efeitos de alta densidade são baseados no formalismo de Glauber-Mueller. Os resultados aqui apresentados mostram que os efeitos de alta densidade nas distribuições partônicas são importantes para altas energias, pois a descrição da seção de choque para o processo Drell-Yan, quando os efeitos de alta densidade são considerados, apresenta significativas diferenças da descrição onde não considera-se tais efeitos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma atividade com a magnitude da avicultura, que usa equipamentos de última geração e serviços atualizados, é levada, na maioria dos casos, a tomar decisões que envolvem todos aspectos de produção, apoiada em critérios subjetivos. A presente tese objetivou estudar a utilização das redes neurais artificiais na estimação dos parâmetros de desempenho de matrizes pesadas, pertencentes a uma integração avícola sul-brasileira. Foram utilizados os registros de 11 lotes em recria, do período compreendido entre 09/11/97 a 10/01/99 e de 21 lotes em produção, do período compreendido entre 26/04/98 a 19/12/99, para a análise por redes neurais artificiais. Os dados utilizados corresponderam a 273 linhas de registros semanais, do período de recria e 689 linhas de registros semanais, do período de produção. Os modelos de redes neurais foram comparados e selecionados como melhores, baseados no coeficiente de determinação múltipla (R2), Quadrado Médio do Erro (QME), bem como pela análise de gráficos, plotando a predição da rede versus a predição menos o real (resíduo). Com esta tese foi possível explicar os parâmetros de desempenho de matrizes pesadas, através da utilização de redes neurais artificiais. A técnica permite a tomada de decisões por parte do corpo técnico, baseadas em critérios objetivos obtidos cientificamente. Além disso, este método permite simulações das conseqüências de tais decisões e fornece a percentagem de contribuição de cada variável no fenômeno em estudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é calcular, pela primeira vez na literatura, os fluxos de emprego (job flows) na indústria gaúcha nos anos 90 e sua relação com o processo de abertura comercial no período. O trabalho propõe o estudo do emprego na indústria através do comportamento das variações do emprego nas empresas individualmente, para identificar a heterogeneidade de comportamento dentro dos setores, ao invés do uso de médias agregadas, que implicitamente supõe um comportamento homogêneo das empresas. Denominamos fluxos de emprego as taxas de criação e destruição do emprego, estimadas em 5,15% e 6,42% ao ano, em média, respectivamente. Destas obtemos a taxa líquida de crescimento do emprego e a taxa de realocação bruta do emprego, estimadas em –1,27 e 11,57%, respectivamente. Em todos os anos da década houve criação e destruição de emprego simultaneamente, sugerindo uma grande heterogeneidade na dinâmica do emprego nas empresas. A perda média de 1 emprego em 100 por ano no período é resultado da abertura de 5 postos e destruição de 6 postos. Além dos fluxos, este trabalho estima e analisa o impacto do câmbio e da abertura comercial do país nestas taxas. As regressões indicaram para, dada uma depreciação de 1% do câmbio, um impacto de 0,10% sobre a criação de emprego e um impacto, simétrico, de –0,097% sobre a destruição de emprego no trimestre seguinte Por outro lado, a abertura comercial ocorrida nos anos 90, medida através do grau de abertura setorial, não se mostrou significativo para explicar as variações da criação de empregos e da realocação, tendo um efeito positivo na variação líquida e negativo na destruição de postos de trabalho na indústria gaúcha nos anos 90, liderado, a princípio, pelas exportações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho analisamos os efeitos causados pela migração dependente da densidade em metapopulações, modelada como um sisitema de n sítios discretos no tempo e no espaço. A análise em diferentes funções que descrervem a dinâmica local do sistema e para configurações da rede na forma unidimensional (anéis cíclicos) e na forma bidimensional (superfície toroidal). Para os anéis cíclicos, obtemos os padrões espaciais causados pela migração dependente da densidade. Além disso, observamos que padrões mais irregulares e complexos aparecem de forma mais intensa em uma das funçoes analisadas na descrição do processo de dinâmica local. Através de várias evidências numéricas determinamos, para dinâmica local, descrita pela função exponencial logística, a região onde a migração dependente da densidade induz caóticos no sistema. esta região é crescente conforme ocorre o crescimento na fração migratória máxima. Para redes bidimentsionais na forma vizinhança de Moore apresentamos as instabilidades causadas pela migração dependente da densidade nas mesmas funções utilizadas para deescrever o processo de dinâmica local do caso anterior. Através do cálculo do espectro de Lyapunov confirmamos os padrões caóticos encontrados, classificando-os como caos espaço temporal completamente desenvolvido e supressão de caos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A área bancária é um dos setores que mais têm investido em tecnologia de informação (TI), tendo seus produtos e serviços fundamentalmente apoiados por essa tecnologia. Apesar de complexo, mostra-se necessário e importante identificar e avaliar os possíveis efeitos de sua aplicação nas organizações, de forma a poder-se comprovar se os altos investimentos em TI fazem diferença. Nesta dissertação, comparam-se as percepções dos executivos dos bancos argentinos, uruguaios, chilenos, norte-americanos e brasileiros, quanto ao impacto proporcionado pela TI nas variáveis estratégicas das organizações bancárias. O estudo é uma pesquisa survey descritiva, que utilizou como instrumento de coleta de dados o questionário desenvolvido por MAÇADA & BECKER (2001). Para tal, foram realizados testes de validação (primeiramente, com os dados dos três países latino-americanos de língua hispânica e, depois, com os dados dos cinco países envolvidos na pesquisa). Com a realização deste estudo, obtiveram-se, como principais resultados, quatro importantes achados: (1) a Competitividade, os Produtos e Serviços e os Tomadores de Recursos Financeiros (clientes) são as variáveis estratégicas mais afetadas pela TI; Preços e Estrutura de Custos e Capacidade são as variáveis estratégicas menos afetadas pela TI; (2) os executivos dos bancos argentinos e uruguaios, e norte-americanos e uruguaios apresentam percepções muito semelhantes, quanto ao impacto de TI nas organizações bancárias às quais pertencem, enquanto as amostras brasileira e norte-americana apresentam as percepções mais distintas entre si; (3) não há diferença entre executivos de TI e de outras áreas funcionais quanto à percepção dos impactos de TI nas variáveis estratégicas; e (4) o impacto da TI na Competitividade está significativamente relacionado com os impactos da TI nos Tomadores de Recursos Financeiros, Governos e Países, Produtos e Serviços e Estrutura de Custos e Capacidade. A pesquisa apontou, ainda, as variáveis estratégicas mais afetadas pela TI nos setores bancários argentino, uruguaio e chileno. Espera-se que este estudo sobre o impacto de TI nas organizações constitua-se, para os executivos bancários, em ferramenta que possibilite apoiar no planejamento de TI e avaliar a sua utilização, bem como sirva de suporte para a realização de futuras pesquisas sobre esta temática.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese trata da relação matemática entre as espessuras real e aparente em contaminações subterrâneas com gasolina e com gasolina e etanol. Foi testada a hipótese de que a relação entre as espessuras dos dois tipos de gasolinas pode ser descrita pela mesma relação matemática desde que esta relação incorpore as tensões interfaciais entre a água e a gasolina e gasolina e o ar que ocorrem no meio poroso. É proposta uma relação matemática hidrostática para o equilíbrio considerando o contato entre o poço de monitoramento e o meio poroso e a tensão interfacial responsável pelos efeitos capilares no meio poroso e a densidade dos fluidos. Os experimentos conduzidos em meio poroso e colunas acrílicas mostraram um ajuste estatisticamente melhor da equação matemática proposta para a gasolina pura e um ajuste que apresentou menor representatividade estatística para a gasolina com etanol. Esta discrepância está relacionada ao fato da transferência de massa do etanol presente na gasolina para a água não ser um fenômeno desprezível, causar grande influência no sistema e não estar contemplada na relação matemática proposta. Outro fenômeno observado em gotas de fluidos em experimentos para medir a tensão interfacial pode ser responsável pelo ajuste menos representativo da equação que é a presença de instabilidades na interface de contato entre a gasolina e a água. Estas instabilidades que são chamadas na literatura de Efeito Marangoni produzem variações na interface entre água e gasolina e são também responsáveis pela diferença no ajuste da equação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta tese são estimadas funções não lineares de importação e exportação para o Brasil, utilizando a metodologia de redes neurais artificiais, a partir de dados trimestrais, no período de 1978 a 1999. Com relação às importações, partindo-se da hipótese de país pequeno, as estimações são feitas para a demanda de importações totais, de bens intermediários e de material elétrico. Para as exportações, o pressuposto de país pequeno, num contexto de concorrência monopolística, é utilizado, de maneira que as estimações são feitas para a oferta e demanda por exportações brasileiras. As séries selecionadas são as exportações totais, as exportações de manufaturados e as exportações de material elétrico. A metodologia adotada para as importações procura visualizar a não linearidade presente nas séries de comércio exterior e encontrar a topologia de rede que melhor represente o comportamento dos dados, a partir de um processo de validação do período analisado. Procura observar, também, a sensibilidade das saídas das redes a estímulos nas variáveis de entrada, dado a dado e por formação de clusters. Semelhante método é utilizado para as exportações, com a ressalva que, diante de um problema de simultaneidade, o processo de ajuste das redes e análise da sensibilidade é realizado a partir de uma adaptação do método de equações simultâneas de dois estágios. Os principais resultados para as importações mostram que os dados apresentam-se de maneira não linear, e que ocorreu uma ruptura no comportamento dos dados em 1989 e 1994. Sobretudo a partir dos anos 90, as variáveis que se mostram mais significativas são o PIB e a taxa de câmbio, seguidas da variável utilização de capacidade produtiva, que se mostra com pouca relevância Para o período de 1978 a 1988, que apresenta um reduzido impacto das variáveis, a taxa de câmbio é relevante, na explicação do comportamento das importações brasileiras, seguida da utilização de capacidade produtiva, que demonstra-se significativa, apenas, para a série de bens intermediários. Para as exportações, os dados, também, se apresentam de maneira não linear, com rupturas no seu comportamento no final da década de 80 e meados de 1994. Especificamente, para a oferta e a demanda, as variáveis mais importantes foram a taxa de câmbio real e o PIB mundial, respectivamente. No todo, as séries mais importantes na explicação das importações e exportações foram a importação total e de bens intermediários e a exportação total e de manufaturados. Tanto para as importações, quanto para as exportações, os resultados mais expressivos foram obtidos para os dados mais agregados. Por fim, com relação às equações das exportações brasileiras, houve uma superioridade de ajuste e significância das variáveis das equações de demanda, frente às de oferta, em explicar os movimentos das exportações brasileiras.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem por objetivo avaliar os resultados do método PEI – Programa de Enriquecimento Instrumental – desenvolvido por Reuven Feuerstein, em trabalhadores de baixa escolaridade e qualificação de uma empresa de serviços. A fim de compreender as demandas das empresas modernas em relação aos seus trabalhadores, buscou-se na literatura o referencial teórico das escolas de administração que acompanham a crescente complexidade do ambiente empresarial moderno. A tendência à descentralização, principalmente na área de serviços, tem exigido o desenvolvimento da capacidade cognitiva e criativa de seus colaboradores. Considerando que o processo evolucionário, mesmo coletivamente, é resultado de uma aprendizagem individual, buscou-se no trabalho do educador Reuven Feuerstein um referencial teórico e metodológico que pudesse contribuir para que este ajustamento ocorra sem prejuízos para o trabalhador. Sua abordagem partiu da proposta de Piaget e está alinhada à de Vygotsky e Paulo Freire, também estudados na Parte I deste trabalho. A Parte II apresenta o desenrolar da pesquisa na empresa de serviços terceirizados, a ANDRITA Dragagens e Limpezas, onde o método de Feuerstein foi ministrado para 19 empregados voluntários, por 22 semanas. Nela são expostas as apreciações das avaliações, baseadas em testes e entrevistas individuais, realizadas pré e pós- intervenção. Os resultados do programa foram medidos por meio da análise comparativa das avaliações efetuadas antes e depois do PEI e são explanados na Parte III. Eles indicam que o método produziu mudanças positivas para todos os participantes, embora variando de foco e intensidade. Os efeitos mais significativos apareceram na auto-estima, os quais repercutiram na visão mais otimista do futuro e na atitude mais ativa e reflexiva diante de adversidades. A grande maioria dos participantes percebeu diferenças em seu jeito de ser e agir, tais como maior controle emocional, melhor comunicação e relacionamento interpessoal. Também foram comprovados ganhos no nível intelectual e na criatividade dos participantes. Essas mudanças se refletiram nas várias esferas da vida social, principalmente profissional e doméstica, proporcionando melhora em algum aspecto do desempenho percebido por eles próprios ou pela chefia. Passaram a assumir mais a responsabilidade pelo próprio desempenho, o que é uma característica desejável em trabalhadores de serviços. Um aspecto marcante da participação no programa foi o engajamento nas tarefas propostas pelos exercícios. Há vários relatos de como mergulhavam nas atividades e esqueciam do tempo e das preocupações, o que também é esperado no programa e visa desenvolver a motivação intrínseca, pela formação do hábito de realizar atividades que desafiem a própria capacidade. As entrevistas assinalaram, ainda, opiniões quanto ao método, seus exercícios e forma de condução, permitindo levantar idéias acerca da possibilidade de enriquecimento das atividades junto aos grupos de adultos em ambiente de trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Aplicações como videoconferência, vídeo sob-demanda, aplicações de ensino a distância, entre outras, utilizam-se das redes de computadores como infra-estrutura de apoio. Mas para que tal uso seja efetivo, as redes de computadores, por sua vez, devem fornecer algumas facilidades especiais para atender às necessidades dessas aplicações. Dentre as facilidades que devem ser fornecidas estão os suportes à qualidade de serviço (QoS - Quality of Service) e as transmissões multicast. Além do suporte a QoS e multicast nas redes, é necessário fornecer um gerenciamento da rede adequado às expectativas de tais aplicações. Soluções que fornecem gerenciamento de forma individual para tais facilidades, já foram propostas e implementadas. Entretanto, estas soluções não conseguem agir de modo integrado, o que torna a tarefa do gerente da rede extremamente complexa e difícil de ser executada, pois possibilitam um fornecimento não adequado das facilidades desejadas às aplicações. Nesta dissertação é apresentada uma solução para gerenciamento integrado de QoS e multicast. Fazem parte da solução: a definição e implementação de uma arquitetura para gerenciamento integrado de QoS e multicast, utilizando gerenciamento baseado em políticas (PBNM - Policy-Based Network Management), além da validação da solução proposta através da implementação de um protótipo. Um ambiente, condições de teste, e análise dos resultados obtidos, também são apresentados durante a dissertação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta Tese apresenta o SAM (Sistema Adaptativo para Multimídia), que consiste numa ferramenta de transmissão e recepção de sinais multimídia através de redes de computadores. A ferramenta pode ser utilizada para transmissões multimídia gravadas (vídeo sob demanda) ou ao vivo, como aulas a distância síncronas, shows e canais de TV. Seu maior benefício é aumentar o desempenho e a acessibilidade da transmissão, utilizando para isso um sinal codificado em camadas, onde cada camada é transmitida como um grupo multicast separado. O receptor, utilizando a ferramenta, adapta-se de acordo com a sua capacidade de rede e máquina no momento. Assim, por exemplo, um receptor com acesso via modem e outro via rede local podem assistir à transmissão na melhor qualidade possível para os mesmos. O principal foco da Tese é no algoritmo de controle de congestionamento do SAM, que foi denominado ALM (Adaptive Layered Multicast). O algoritmo ALM tem como objetivo inferir o nível de congestionamento existente na rede, determinando a quantidade de camadas que o receptor pode suportar, de forma que a quantidade de banda recebida gere um tráfego na rede que seja eqüitativo com outros tráfegos ALM concorrentes, ou outros tráfegos TCP concorrentes. Como se trata de transmissões multimídia, é desejável que a recepção do sinal seja estável, ou seja, sem muitas variações de qualidade, entretanto, o tráfego TCP concorrente é muito agressivo, dificultando a criação de um algoritmo estável. Dessa forma, desenvolveu-se dois algoritmos que formam o núcleo desta Tese: o ALMP (voltado para redes privativas), e o ALMTF (destinado a concorrer com tráfego TCP). Os elementos internos da rede, tais como os roteadores, não necessitam quaisquer modificações, e o protocolo funciona sobre a Internet atual. Para validar o método, se utilizou o software NS2 (Network Simulator), com modificações no código onde requerido. Além disso, efetuou-se uma implementação inicial para comparar os resultados das simulações com os da implementação real. Em http://www.inf.unisinos.br/~roesler/tese e também no CD anexo a esta Tese, cuja descrição encontra-se no Anexo B, podem ser encontrados todos os programas de apoio desenvolvidos para esta Tese, bem como a maior parte da bibliografia utilizada, o resultado das simulações, o código dos algoritmos no simulador e o código do algoritmo na implementação real.