949 resultados para Funcionamento anormal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

As galhas ou cecídeas, são caracterizadas por um crescimento anormal do tecido a estímulos específicos de um organismo invasor, que pode ser: bactéria, fungo, nematódeo ou artrópodo. A interação organismo invasor/planta hospedeira altera os estados químicos e fisiológicos dos tecidos da planta durante a cecidogênese, e provavelmente do organismo indutor. Vários tipos de estímulos bióticos e abióticos são conhecidos como potenciais alteradores da produção de compostos fenólicos nas plantas. Estes compostos estão envolvidos na defesa da planta contra pestes e patógenos. Uma espécie de coccídeo, ainda não identificada, induz galhas foliares em espécimes de Rollinia laurifolia Schdtl. (ANNONACEAE). Os coccídeos são caracterizados por um acentuado dimorfismo sexual, que também é expresso nas galhas que produzem. As galhas fêmeas são relativamente grandes, enquanto as galhas macho são menores e menos complexas. Os objetivos deste estudo foram verificar a relação ecológica/bioquímica entre inseto e planta averiguando possíveis diferenças entre folhas sadias e folhas galhadas, além também de verificá-las entre galhas fêmeas e galhas macho. Técnicas de determinação de fenóis totais, HPLC, TRAP e TBARS foram usadas neste estudo. Observou-se que a ocorrência de galhas nas folhas de R. laurifolia está relacionada à significativa redução no conteúdo fenólico total das mesmas. Qualitativamente também houve alteração no perfil fenólico das folhas galhadas em comparação com as folhas sadias. TRAP e TBARS também mostraram alterações no conteúdo fenólico das folhas galhadas. Alterações no conteúdo fenólico e na capacidade antioxidante relacionada ao sexo do galhador, também foram observadas. Nossos resultados sugerem que a interação galhador/R. laurifolia altera o perfil fenólico das folhas, consequentemente é alterada também a capacidade antioxidante dos extratos de folhas com galhas macho e galhas fêmeas. Uma causa provável para estas mudanças seria a difusão de oxigênio para o tecido foliar e a oxidação de biomoléculas, disparando sinais para a produção de diferentes compostos fenólicos, em conseqüência do estresse biótico durante a cecidogênese, possivelmente em uma tentativa de a planta buscar o equilíbrio fisiológico com o galhador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O sucesso da Internet como plataforma de distribuição de sistemas de informação encoraja organizações a disponibilizar serviços presentes em seus sistemas legados nesse ambiente. Uma parte desses sistemas foi desenvolvida na fase inicial do desenvolvimento das aplicações cliente/servidor para banco de dados, usando ambientes visuais com interfaces gráficas tipo WIMP, implementadas sob o paradigma procedimental/estruturado, baseado em objetos e eventos. Como conseqüência, produziu-se sistemas legados difíceis de manter, evoluir e adaptar a novas tecnologias e arquiteturas, pois os projetos desenvolvidos não seguiam, na maioria das vezes, os bons preceitos e práticas modernas defendidas na Engenharia de Software. O objetivo deste trabalho é propor uma metodologia para migrar sistemas legados com as características citadas acima para a plataforma Web. O processo de migração proposto destaca duas estratégias: a elaboração de modelos de classes conceituais da aplicação e o tratamento dado à interface do usuário, para serem utilizados na reconstrução de uma nova aplicação. O processo é baseado em técnicas e métodos de engenharia reversa, que visa obter abstrações por meio de análise estática e dinâmica da aplicação. Na análise dinâmica, destaca-se o mecanismo para recuperar aspectos dos requisitos funcionais do sistema legado e representá-los na ferramenta denominada UC/Re (Use Case para Reengenharia). Todos os artefatos gerados durante o processo podem ser armazenados em um repositório, representando os metamodelos construídos na metodologia. Para delimitar e exemplificar o processo, escolheu-se como domínio de linguagem de programação do software legado, o ambiente Delphi (sob a linguagem Object Pascal). É proposto também um ambiente CASE, no qual é descrito o funcionamento de um protótipo que automatiza grande parte das funcionalidades discutidas nas etapas do processo. Algumas ferramentas desenvolvidas por terceiros são empregadas na redocumentação do sistema legado e na elaboração dos modelos UML do novo sistema. Um estudo de caso, apresentando uma funcionalidade específica de um sistema desenvolvido em Delphi, no paradigma procedimental, é usado para demonstrar o protótipo e serve de exemplo para a validação do processo. Como resultado do processo usando o protótipo, obtém-se o modelo de classes conceituais da nova aplicação no formato XMI (formato padrão para exportação de modelos UML), e gabaritos de páginas em HTML, representando os componentes visuais da interface original na plataforma Web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A busca de uma maior competitividade tem levado a indústria a utilizar temperaturas de cementação cada vez mais elevadas. Este aumento na temperatura permite uma significativa diminuição dos tempos de tratamentos, porém pode levar a um aumento generalizado ou anormal do tamanho de grão austenítico bastante deletério as propriedades mecânicas do material. A utilização de elementos formadores de precipitados é uma alternativa para minimizar este problema. Neste trabalho foi estudado um aço SAE 5115 com adição de 0,038% em peso nióbio para ancoramento de grão. Para este estudo foi simulado um tratamento térmico de cementação em temperaturas mais elevadas, como 1000 e 1050°C, por duas horas, partindo-se de duas condições, bruto de laminação e esferoidizado. A técnica de microscopia eletrônica de transmissão (MET) foi empregada para caracterizar os precipitados, bem como avaliar sua contribuição no ancoramento do grão. A caracterização dos precipitados quanto sua composição, morfologia, tamanho e distribuição, foi realizada analisando-se amostras preparadas por extração de réplicas em filme de carbono e por lâminas finas pelo método de polimento plano no “Tripod Polisher”. Sendo que este último, convencionalmente não utilizado em aço, possibilita a obtenção de amostras com extensa área fina para observação no MET, além de facilitar a análise por minimizar o efeito de desvio de feixe em amostras magnéticas. Os resultados das análises comprovam a precipitação de partículas complexas de Nb e que a forma de distribuição, bem como o percentual de tamanho dos precipitados é de suma importância para o ancoramento do grão. Verificou-se uma tendência maior para o aparecimento de grão anormal nas amostras que sofreram o processo de esferoidização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo identifica os efeitos dos novos acordos de livre comércio sobre os produtores de arroz no Brasil e nas demais regiões relevantes no mercado mundial. Inicialmente , são analisados os acordos comerciais de âmbito multilateral e regional, bem como as principais tendências. Na análise, verificam-se as distorções de mercado e os efeitos sobre os mercados agrícolas. Entre os produtos agrícolas comercializados no mercado internacional, o arroz tem a maior proteção por parte dos países e dos blocos regionais. Em função disto, o comércio de arroz está limitado a 5% da quantidade produzida no mundo, e os preços apresentam uma te ndência de queda ao longo das últimas décadas. A fim de compreender o funcionamento deste mercado, são definidas as principais regiões, analisados os desempenhos destas no mercado internacional e avaliadas as políticas domésticas e de comércio exterior adotadas pelos países. Neste sentido, a área de est udo foi definida com base na afinidade comercial e regional com os países do Mercado Comum do Sul (MERCOSUL) e no desempenho em termos de produção, consumo e comercialização de arroz. Entre as regiões de maio r relevância em termos de produção e consumo, destacamse a China, a Associação das Nações do Sudeste Asiático (ASEAN) e o Acordo Preferencial de Comércio do Sul da Ásia (SAPTA), enquanto por afinidade regional e comercial com os países do MERCOSUL salientam-se os países do Acordo de Livre Comércio da América do Norte (NAFTA), da Comunidade Andina (CAN) e da União Eur opéia (UE) Na análise do desempenho dos países e regiões no mercado internacional, observa-se que a performance de cada região é influenciada pelas políticas intervencionistas, de tal forma que grande parte dos países exportadores adota algum tipo de incentivo à exportação de arroz. Para analisar os efeitos dos novos acordos comerciais, como, por exemplo, da Área de Livre Comércio das Américas (ALCA), MERCOSUL-UE e MERCOSUL-CAN, desenvolve- se um modelo de alocação espacial e temporal utilizando-se de um Problema Complementar idade Mista (PCM). Este modelo permite considerar as diferentes barreiras tarifárias e os subsídios concedidos pelas regiões em estudo, incluindo diferentes cenários que contemplem reduções tarifárias e de subsídios. Desta forma, no primeiro cenário são incluídos os aspectos relacionados com os acordos multilaterais junto à OMC. Por outro lado, os cenários 2, (MERCOSUL-CAN), 3, (ALCA), e 4 (MERCOSUL-UE) simulam acordos de livre comércio de âmbito regional, considerando aspectos como, por exemplo, a eliminação (redução) das barreiras tarifárias e a eliminação (redução) de subsídios Por último, o quinto cenário é subdividido em dois grupos: o primeiro deles considera a formação da área de livre comércio entre a ASEAN e a China; o segundo trata dos efeitos sobre o me rcado internacional de arroz dada a entrada da China na OMC. Entre os cenários analisados destacam-se, como os mais favoráveis aos produtores brasileiros , os acordos de livre comércio com a CAN e os acordos de livre comércio com a UE. Em ambos os cenários existem perdas aos consumidores brasileiros e aos produtores dos países da CAN e da UE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tratamento cirúrgico dos tumores hepáticos tem sido um grande desafio na história evolutiva da cirurgia. No passado, as altas taxas de morbidade e mortalidade limitavam sua aplicação como opção terapêutica. O refinamento da técnica de ressecção hepática está associado a menores índices de mortalidade e morbidade peri-operatória e, embora, a mortalidade tenha sido reduzida a menos de 10% nos serviços especializados, a morbidade ainda é bastante significativa, sendo que a hemorragia grave e a embolia aérea permanecem como complicações graves das hepatectomias. O controle da perda sanguínea é o objetivo primordial durante este tipo de cirurgia. As técnicas descritas, com a finalidade de conter a hemorragia transoperatória, são aquelas associadas à redução do fluxo sanguíneo ao fígado, seja através da oclusão vascular aferente ou manobra de Pringle por clampeamento do pedículo hepático, seja por exclusão vascular total do órgão. Hepatectomias parciais podem ser realizadas com pequeno sangramento e, mesmo quando associadas a períodos prolongados de isquemia tecidual, não foram identificadas lesões parenquimatosas ou falência hepática persistente. A redução na necessidade de reposição de sangue, no período peri-operatório, está associada a menor morbidade e à diminuição significativa na incidência de sepse abdominal. O objetivo deste estudo foi o de avaliar uma série de hepatectomias parciais com oclusão do fluxo sanguíneo aferente, em pacientes portadores de patologias benignas e neoplasias malignas. Foram analisadas 60 hepatectomias em 59 pacientes com oclusão do fluxo sanguíneo aferente quanto a possíveis fatores de risco para morbidade e mortalidade, bem como a relação entre o tempo de isquemia hepática e a variação das transaminases, tempo de protrombina e bilirrubinas, e destes, com a evolução pós-operatória. A prevalência de complicações pós-operatórias foi de 43,3% e a mortalidade de 6,7%. O fator de risco significativo para mortalidade foi tempo cirúrgico mais prolongado, quando comparado com os pacientes que não foram a óbito. Para a morbidade pós-operatória, foram identificados como fatores de risco a idade acima de 60 anos, cirurgia por neoplasia maligna, parênquima hepático anormal, ou seja, presença de cirrose, esteatose ou colestase, perda sanguínea necessitando reposição de mais de uma unidade de sangue e outros procedimentos cirúrgicos concomitantes. Na análise multivariada por regressão logística, estes fatores de risco foram reduzidos, apenas, para presença de cirrose, esteatose ou colestase. O tempo de isquemia não apresentou relação com a morbi-mortalidade pós-operatória. A variação das transaminases foram mais acentuadas nos casos com maior tempo de isquemia, porém, retornaram aos níveis pré-operatórios em, aproximadamente, uma semana. Não houve variação de tempo de protrombina e bilirrubinas quanto ao tempo de isquemia. A variação de AST e ALT não foram diferentes entre os pacientes com e sem morbidade pós-operatória.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente urbanização observada nas últimas décadas tem sido acompanhada por problemas relacionados a quase todos aspectos da infra-estrutura urbana. No que se refere à drenagem pluvial, a situação não é diferente. A impermeabilização gerada pelo processo de urbanização faz com que os hidrogramas se tornem progressivamente mais críticos, com maiores volumes escoados, maiores vazões de pico e menores tempos de escoamento. Agravando esta situação, o sistema tradicional de drenagem, baseado na máxima “pegar e largar depressa”, busca a eliminação da água, o mais rápido possível, através de galerias, condutos enterrados e canalizações, significando, muitas vezes, a simples transferência da cheia para as seções de jusante. A solução clássica para o problema das cheias baseiase na ampliação do sistema e/ou aumento da eficiência das redes, com custos geralmente elevados. Este trabalho apresenta um estudo experimental efetuado em trincheiras de infiltração, dentro de uma filosofia compensatória dos efeitos da urbanização. Esses dispositivos se inserem dentro de um conceito ambiental da drenagem urbana, onde se busca não mais a eliminação da água o mais rapidamente possível, mas sua valorização dentro do espaço urbano, através de dispositivos bem integrados e, preferencialmente, multifuncionais. Duas trincheiras de infiltração foram instaladas e monitoradas em uma área do IPH-UFRGS. A implantação das trincheiras baseou-se na adaptação, para as condições brasileiras, de técnicas descritas na literatura, principalmente no que se refere aos métodos construtivos e materiais utilizados, assim como aos métodos e critérios de utilização e dimensionamento. Durante o período de monitoramento e análise de dados, foram avaliados e discutidos aspectos relacionados a: condições de funcionamento, tais como magnitude do evento pluviométrico e condições antecedentes de umidade do solo; eficiência dos dispositivos; ocorrência de escoamento preferencial; custos; limitações de aplicação. Aspectos relacionados ao funcionamento do dispositivo ao longo do período de monitoramento são também discutidos, buscando avaliar seu desempenho a longo prazo, apesar do curto período de observação. Adicionalmente, um modelo numérico de simulação do funcionamento quantitativo de dispositivos de infiltração foi testado (modelo de Bouwer), sendo sugeridas modificações para torná-lo mais abrangente. As duas trincheiras mostraram-se eficientes, controlando 100% do volume escoado, mesmo para eventos de período de retorno superiores aos de projeto. Verificou-se que a metodologia de projeto gera super-dimensionamento das estruturas e que as condições iniciais de umidade do solo e as características dos eventos são fatores determinantes para seu funcionamento. Durante os 33 meses de observação da trincheira I e os 6 meses da trincheira II, não houve alterações significativas do funcionamento. Os eventos monitorados na trincheira I indicam a ocorrência de escoamento preferencial. Um ensaio destrutivo reforçou esta hipótese, além de mostrar acentuado grau de colmatação da primeira camada, em função do excessivo aporte de material em suspensão. Recomendações para utilização deste tipo de solução são apresentadas, visando estimular seu uso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Marketing de Rede, também conhecido como Marketing Multinível ou Venda Direta Multinível, é um componente da empresa de venda direta. É um método de distribuição que leva produtos e serviços diretamente ao consumidor, de diversos mercados, por meio de distribuidores independentes. O presente trabalho teve como objetivo analisar o porquê e como as empresas estão utilizando o Marketing de Rede como uma alternativa de ação mercadológica. A pesquisa foi conduzida de acordo com o método de estudo de casos e analisou o perfil de três Empresas, as práticas, características e princípios de funcionamento do sistema de Marketing de Rede. Por meio de depoimentos pessoais, entrevistas e questionários com os executivos, distribuidores e consumidores envolvidos no sistema e fontes bibliográficas, buscou-se traçar um panorama atual do Marketing de Rede. As conclusões incluem os princípios de funcionamento do modelo, o relacionamento existente entre empresa, distribuidor e consumidor na distribuição do produto e a oportunidade de negócio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A permanente busca pela qualidade como diferencial nas instituições de ensino, bem como a necessidade de atender aos critérios estabelecidos pela legislação para a revalidação da autorização de funcionamento dos Centros Universitários no Brasil, foram os elementos que determinaram a abrangência desta pesquisa. Devido à complexidade e ao amplo espectro de itens que compõem o que podemos determinar como sendo qualidade, a pesquisa limitou-se a identificar os fatores pedagógicos e administrativos relevantes para a avaliação da qualidade no ensino. Para limitar o campo da pesquisa, esta foi feita utilizando o método de estudo de caso, que é uma estratégia de pesquisa que examina um fenômeno contemporâneo dentro do seu contexto real, e para tanto, foi pesquisado o curso de Bacharelado em Informática do Centro Universitário Positivo - UnicenP, em Curitiba. Dentre as metodologias que poderiam ser utilizadas, foi escolhida a metodologia denominada Soft System Methodology, ou simplesmente SSM. Esta metodologia, proposta por Peter Checkland em 1985 na Universidade de Lancaster no Reino Unido, é uma resposta às dificuldades de aplicação de metodologias que tendem a enfatizar que os objetivos dos sistemas são mensuráveis e que estes podem ser decompostos em sub-sistemas, através da técnica top-down, quando essas metodologias são aplicadas a problemas empresariais. A SSM permite a ordenação e a estruturação de situações problemáticas complexas e que se apresentam, aparentemente inconsistentes e com múltiplas visões pelos envolvidos no processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo examinou o comportamento do preço das ações de empresas brasileiras após a realização de seasoned equity offerings (SEOs), no médio e no longo prazo, tendo como base as companhias com ações negociadas na Bolsa de Valores de São Paulo (BOVESPA), entre 1993 e 1997. O retorno anormal cumulativo (CAR) apresentou um retorno residual de –15,80% para o período de três anos após a emissão e de –34,04% para o período de cinco anos, estatisticamente significante ao nível de 5% e 1%, respectivamente. Na segmentação das amostras por setor de atividade econômica, ano de emissão e classe de ação emitida, os resultados encontrados sugerem que esses fatores podem influenciar os desempenhos de longo prazo das companhias brasileiras após a realização de SEOs. Verificou-se que os piores desempenhos estão concentrados nas empresas de menor patrimônio líquido. Além do mais, os piores retornos dos preços, em relação ao mercado, ocorreram para empresas que realizaram SEOs em 1993 e 1994, sugerindo que aspectos conjunturais presentes na economia brasileira influenciam o comportamento do preço das ações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desenvolvimentos recentes na tecnologia de informação têm proporcionado grandes avanços no gerenciamento dos sistemas de transportes. No mundo já existem várias tecnologias testadas e em funcionamento que estão auxiliando na tarefa de controle da operação do transporte público por ônibus. Esses sistemas geram informações úteis para o planejamento e operação dos sistemas de transportes. No Brasil, os investimentos em tecnologias avançadas ainda são muito modestos e estão focados em equipamentos que auxiliam no controle da evasão da receita. No entanto, percebe-se um crescente interesse, por parte dos órgão gestores e operadores, em implementar sistemas automatizados para auxiliar na melhoria da qualidade dos sistemas de transportes e como forma de aumentar a produtividade do setor. Esse trabalho traz à discussão os sistemas avançados desenvolvidos para o transporte público coletivo, com o objetivo de definir o perfil da tecnologia avançada que está de acordo com as necessidades dos gestores e operadores brasileiros. Na realização do trabalho foi empregada uma ferramenta de planejamento denominada Desdobramento da Função Qualidade – QFD (Quality Function Deployment), bastante utilizada para direcionar os processos de manufatura e produto, e para hierarquizar os atributos considerados importantes para o gerenciamento do transporte público urbano no Brasil. O resultado do trabalho indica um grande interesse em implantar tecnologia avançada para auxiliar no monitoramento dos tempos de viagem e tempos perdidos durante a operação do transporte público. Essa tecnologia também é tida como capaz de melhorar o desempenho das linhas, através da manutenção da regularidade e pontualidade. Ainda, sistemas inteligentes que propiciam informações precisas aos usuários contribuem para melhorar a imagem do modal ônibus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho destina-se a apresentar a experiência de montagem e de validação de uma Bancada de Calibração de sensores para determinação da umidade relativa do ar com base nas teorias e normas existentes de psicrometria. A Bancada foi construída com base em normas internacionais, onde salienta-se a ASHRAE 41.1-1974, sendo uma evolução de trabalhos anteriormente desenvolvidos. A validação da bancada passa por uma verificação do funcionamento do sistema montado, buscando garantir que o mesmo é eficaz no que se propõe. Para isso, curvas de estabilidade em temperatura e umidade relativa do ar em função do tempo foram levantadas e analisadas dentro de uma certa faixa de operação, entre 30,50 e 44,50 ºC e para temperatura de bulbo úmido, entre 25,00 e 31,10 ºC. Para a estabilidade em umidade relativa do ar testada, a faixa varia de 57,20 a 74,46 %. Também foi verificado experimentalmente o comportamento da temperatura de bulbo úmido em função da velocidade do ar no escoamento, entre 1,25 e 5,00m/s. Para a comprovação desta verificação experimental, os dados coletados nos sensores e termômetros foram corrigidos através das equações de calibração e depois os mesmos foram comparados e estudados mediante uma análise de variância (ANOVA). Os resultados dos testes revelaram que a velocidade na faixa experimentada (1,25 a 5,00) m/s não gera uma diferença significativa na leitura dos sensores Um outro teste experimental foi elaborado para verificar o comportamento da temperatura de bulbo úmido em função da umidade relativa do ar para diversos elementos sensores de temperatura. (termômetros de Hg, sensores PT100, AD592 e termopar tipo K). Para esta verificação, os elementos sensores foram submetidos a uma velocidade de 5,00 m/s. Para cada nível de temperatura, três níveis de umidade relativa do ar foram analisadas. Os resultados mostram que a Bancada de calibração é um ambiente controlado dentro de uma faixa de temperatura e umidade relativa do ar, sendo um recurso a mais que pode ser usado no vasto campo da psicrometria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Voz sobre IP (VoIP) é uma tecnologia que permite a digitalização e a codificação da voz e o empacotamento em pacotes de dados IP para a transmissão em uma rede que utilize o protocolo TCP/IP. Devido ao volume de dados gerados por uma aplicação VoIP, esta tecnologia se encontra em funcionamento, em redes corporativas privadas. Mas se a rede base para o transporte desta aplicação for a Internet, certamente, não deve ser utilizada para fins profissionais, pois o TCP/IP não oferece padrões de QoS (Qualidade de Serviço) comprometendo desta forma a qualidade da voz. A qualidade da voz fica dependente do tráfego de dados existentes no momento da conversa. Para realizar um projeto de VoIP é necessário conhecer todo o tráfego existente na rede e verificar o quanto isto representa em relação à banda total da rede. Também se deve conhecer o tipo de aplicação que se deseja implantar, verificando a banda a ser utilizada por esta, e então projetar como a rede deverá ser estruturada. Para auxiliar no projeto de VoIP, pretende-se mostrar o que está sendo desenvolvido para que o protocolo TCP/IP ofereça QoS e uma ferramenta para análise do tráfego de voz sobre redes TCP/IP e também análises dos resultados obtidos em experimentos simulando diversas situações práticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tese realiza uma leitura sobre a produção das identidades de gênero, de geração e de etnias nos livros didáticos de Geografia, do ensino fundamental. Ela se inscreve no terreno das discussões que examinam as relações entre poder e produção de significados, ancorada em ferramentas teóricas fornecidas pela vertente pós-estruturalista dos Estudos Culturais. A investigação pretende demonstrar que as invenções identitárias são engendradas através de discursos, que produzem significados por meio de diversos referentes: origem, sexo, idade, cor da pele, configuração geográfica. A problematização e a discussão desenvolvida durante a pesquisa permitiram evidenciar que há uma regularidade na maneira de produzir as identidades. Também demonstram que as identidades são posicionadas com significados fixos, cristalizados e universais, predominando uma homogeneização de sentido. As diferenças entre as identidades são produzidas em diversas dimensões e constantemente alteradas, mas sempre seguindo uma política interessada em permitir que sejam posicionadas como distintas. Pelas diferenças, as identidades são definidas e classificadas, autorizando e legitimando uma hierarquia territorial binária entre elas. Entre uma série de relações traçadas a partir dessa leitura, argumenta-se que essa produção identitária é uma continuidade do projeto da Modernidade e do processo civilizatório ocidental, nos quais a diferença é vista com estranhamento, sendo inferiorizada. Esta pesquisa estabelece os seguintes focos para análise: Uma divisão do mundo— examino como os discursos dos livros didáticos de Geografia fabricam o território como uma matriz, para a partir daí estabelecer as identidades. Procuro demonstrar como os discursos constroem essa matriz bipolar —“desenvolvida” e “subdesenvolvida”— diante de tantas diversidades históricas, socioeconômicas, culturais, étnicas, etc. e conseguem erguer fronteiras impenetráveis, que funcionam para conformar as identidades em dois territórios, anulando outras possibilidades; Gênero – a reafirmação da polaridade— descrevo e problematizo o funcionamento dos discursos que procuram produzir identidades distintas entre homens e mulheres por meio de uma sexualização dos espaços doméstico e do mercado de trabalho. Essa separação espacial captura homens e mulheres em territórios opostos, disponibilizando uma hierarquia socioeconômica entre eles; Gerações – aprisionadas em “etapas da vida”— centro o foco analítico na constituição das identidades das crianças e dos/as idosos/as por meio das idades da vida, para dar sustentação a uma racionalidade capitalista-moderna. Também mostro que o rompimento das definições etárias dessa 14 lógica implica numa política identitária que os inventa como diferentes; Etnia – a naturalização das diferenças— mostro a forma como os discursos dos livros didáticos de Geografia acionam estratégias estruturadas por meio de um esquema epidérmico e da configuração geográfica para produzir, posicionar as identidades étnicas e capturá-las para territórios: ocidentais e Outros. Também comento que a movimentação de algumas identidades étnicas para outros