1000 resultados para Cruzamentos múltiplos
Resumo:
A convergência da indústria em grandes oligopólios gerou, por longo período, pressões sobre o varejo. Nos últimos anos, o Brasil seguiu o movimento mundial de aquisições de redes supermercadistas menores pelos grandes grupos internacionais. Este fato, em conjunto com a disputa acirrada pela preferência do consumidor, fez com que os canais supermercadistas passassem a investir com maior intensidade na atração de novos clientes, bem como na manutenção dos seus atuais compradores. Através de produtos com a sua insígnia, o canal varejista buscou a fidelização do consumidor, o aumento da rentabilidade e o incremento de vendas em suas lojas. O segmento de marcas próprias apresentou alto índice de crescimento nos últimos anos e os fabricantes vislumbraram neste mercado a perspectiva de aumento de faturamento e a oportunidade de comercialização dos seus produtos em cadeias supermercadistas de grande porte, mesmo sob a marca do varejista. Passados alguns anos, este mercado não atingiu o patamar de crescimento idealizado. Não se pode desprezar este mercado que representa 6,5 % do setor e dispõe de mais de 17.000 itens, mas é preciso avaliar seu verdadeiro impacto sobre os negócios (ACNielsen, 2002). Este estudo teve por objetivo a análise do mercado de marcas próprias sob a perspectiva do fabricante, abordando questões relativas a (a) evolução do segmento, (b) fatores motivadores e restritivos, (c) estratégias da indústria, (d) estratégias do varejo e (e) perspectivas. A partir de um estudo de casos múltiplos realizado com fabricantes de marcas próprias das principais redes supermercadistas do Brasil, identificou-se quais são os fatores que afetam o mercado de marcas próprias. Acrescentando novos conhecimentos às asserções teóricas, observa -se que a participação dos fabricantes no segmento é avaliada positivamente, mas a continuidade desta operação é condicionada ao compartilhamento de estratégias, ações e riscos entre indústria e varejo.
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
A maior dificuldade na medição de escoamentos de líquidos é com campos em velocidades acima de 0,5 m/s. O processamento “PIV” (Velocimetria por processamento de Imagens de Partículas) com iluminação a Laser contínua (não pulsada), utilizando câmeras CCD possibilitou a análise de quadros em seqüências de imagens capturadas na velocidade convencional de 30 quadros/s, com bons resultados para deslocamentos lentos < 0,5 m/s. Para velocidades maiores esta técnica torna-se inviável. A imagem das partículas forma um rastro, não permitindo a identificação da partícula singela. Com a introdução recente de câmeras digitais rápidas com velocidade de obturação controlada tornou-se possível a medida de fluidos em deslocamentos rápidos. O presente trabalho apresenta duas técnicas “intraframe” (dentro do quadro de imagem) para análise de escoamentos, em velocidades na ordem 2 m/s, utilizando câmeras CCD-DV e gravação digital em fita DVT (digital video tape). A primeira programando a câmera no modo progressivo, imagens são capturadas em velocidades de obturação diferentes resultando num rastro caracterizado pelo deslocamento das partículas, proporcional ao vetor velocidade. A segunda programando a câmera no modo entrelaçado, a imagem é capturada em dois campos intercalados na velocidade de obturação desejada, obtendo-se uma imagem dupla capturada em tempos diferentes, montada pelo campo ímpar e o campo par, entrelaçado entre um e o outro A câmera captura e grava o evento na velocidade de obturação variável de 1/30 por segundo até 1/10000 por segundo, requerida para observar-se os deslocamentos entre os campos. Uma placa de aquisição digitaliza a imagem a ser processada. Um algoritmo baseado nas técnicas de processamento de imagens, determina os múltiplos deslocamentos das partículas apresentando o diagrama bidimensional com os vetores velocidade.
Resumo:
O objetivo principal deste trabalho é elaborar uma sistemática para estruturar uma rede logística reversa de distribuição para o sistema de coleta, processamento e recuperação de resíduos da construção civil. O trabalho foi estruturado em três partes, sendo que na primeira parte elaborou-se uma introdução geral à logística e à logística reversa em particular, definindo uma estrutura de suporte ao estudo de caso e às conclusões do trabalho; na segunda parte procurou-se vincular a logística reversa à sustentabilidade; e na terceira parte elaborou-se uma sistemática para a rede de distribuição, definindo os dados a serem utilizados na aplicação dos modelos, fazendo análises e tirando conclusões a respeito dos resultados obtidos e indicando possíveis desenvolvimentos futuros para o trabalho. Para a formatação da rede desenvolveu-se o modelo de rede reversa de recuperação de resíduos – MRRR, baseado em programação linear inteira mista. Para aplicação do MRRR ao caso dos resíduos de construção e demolição – RCD no município de Curitiba, definiu- se instalações de transbordo e de reciclagem candidatas, através da aplicação de um modelo de localização de múltiplos centros de gravidade – MMCG. Como nós fixos da rede foram considerados as zonas de consumo e de geração, os mercados secundários de recicláveis e recicladores e o aterro sanitário. Os dados para formatação da rede foram gerados pelo MRRR. Como produtos deste trabalho tem-se a sistemática, que pode ser aplicada para a estruturação de redes similares, e a formatação da rede reversa para os resíduos de construção e demolição em Curitiba. Como conclusão, entre outras, verificou-se que a redução da alíquota de imposto pode ser utilizada como incentivo à melhoria da qualidade do resíduo gerado.
Resumo:
A resistência a doenças em plantas transgênicas tem sido obtida por meio da expressão de genes isolados de bactérias, fungos micoparasitas e plantas. Neste trabalho, relatamos a utilização de um gene do fungo entomopatogênico Metarhizium anisopliae como modo de gerar resistência a doenças fúngicas em plantas. O gene chit1 codifica a quitinase CHIT42 (EC 3.2.1.14), pertencente a uma classe de glicosil-hidrolases capazes de converter quitina em oligômeros de N-acetil-glicosamina (NAcGlc). Quando presentes em tecidos vegetais, supõese que as quitinases ataquem especificamente a parede celular de fungos invasores, provocando danos às hifas e causando a morte por lise das células fúngicas. Deste modo, dois diferentes grupos de plantas transgênicas de Nicotiana tabacum foram produzidos: no primeiro deles, denominado chitplus, os indivíduos possuem o gene chit1 sob o controle do promotor CaMV 35S. O segundo grupo, demoninado chitless, consiste de plantas transformadas com um T-DNA não contendo o gene do fungo. Trinta e quatro plantas transgênicas resistentes à canamicina (17 de cada grupo) foram regeneradas a partir de discos de folhas infectados por Agrobacterium tumefaciens. A produção da quitinase em extratos protéicos de folhas foi analisada por zimogramas em SDS-PAGE contendo glicol-quitina e corados por calcoflúor branco, na forma de um screening dos transgênicos primários. As plantas transgênicas foram testadas, ainda, por meio de ensaios colorimétricos empregando oligômeros sintéticos de NAcGlc como substratos específicos, além de immunoblot e Western blot com soro anti-quitinase. A quantidade de enzima recombinante nas plantas chitplus variou desde nenhuma atividade detectável a elevados níveis de expressão da enzima. A hibridização de Southern blot demonstrou que o número de cópias do gene chit1 integradas no genoma vegetal foi estimado entre uma e quatro. A primeira geração de plantas transgênicas geradas por autofecundação de parentais portadores de duas cópias do transgene foi testada com relação à estabilidade da herança do transgene e em 43 de um total de 67 descendentes, originados de quatro cruzamentos independentes, o padrão de segregação não diferiu das proporções Mendelianas esperadas. Ensaios de resistência, desafiando as plantas transgênicas com o basidiomiceto Rhizoctonia solani foram realizados e uma evidente diminuição da área foliar contendo lesões fúngicas foi observada entre as linhagens transgênicas, embora variações na atividade quitinolítica tenham influenciado o nível de resistência. Nossos resultados sugerem uma relação direta entre a atividade específica de quitinase e ao aumento nos níveis de resistência às lesões causadas pela infecção por R. solani.
Resumo:
Este estudo trata da violência sob o olhar das trabalhadoras de enfermagem no cuidado aos pacientes hospitalizados vítimas de violência, em um hospital de pronto socorro em trauma. O Hospital de Pronto Socorro de Porto Alegre / HPS – RS atende pacientes vítimas de trauma de toda a região metropolitana e do interior do Estado. As internações decorrentes da violência, nos últimos anos, representam um aumento significativo na demanda dos atendimentos e internações. O estudo tem como objetivo geral conhecer e compreender o modo de olhar e o fazer das trabalhadoras de enfermagem no cuidado ao paciente vítima de violência, hospitalizado nesse serviço. Para tanto, se propõe caracterizar, do ponto de vista sociodemográfico e epidemiológico, o paciente hospitalizado no HPS por violência. Apóia-se na tipologia dos estudos híbridos que articulam bases teóricas e metodológicas de múltiplas origens e quantificações associadas a dados qualitativos. As unidades de internação do HPS são o campo de estudo. Os sujeitos são os pacientes hospitalizados por traumas decorrentes de violência, no período de janeiro a junho de 2001, e as trabalhadoras de enfermagem desse hospital Entre os resultados encontraram-se 697 pacientes hospitalizados, nesse período, vítimas de violência; 90,5% do sexo masculino; 73% brancos e 27% negros ou descendentes dessa etnia; 59% da faixa etária dos 20 aos 39 anos; a faixa etária dos 11 aos 39 anos corresponde a um percentual de 78,9% das internações; 47,9% agredidos por arma de fogo, 26,5% por arma branca, 25% vitimas de agressão física 0,3% foram vítimas de estupro. Entre os diagnósticos mais freqüentes encontram-se trauma abdominal, trauma torácico, traumatismos múltiplos, traumatismo crânio encefálico. 59.5% (415) são procedentes de Porto Alegre, e os bairros mais freqüentes são Partenon, Lomba do Pinheiro e Cristal. Em relação ao “olhar” da enfermagem no cuidado a esse paciente ficou evidente a preocupação das trabalhadoras e a dificuldade desse enfrentamento, visto que, no hospital, não existem estratégias definidas em relação à violência, num âmbito mais amplo, além do tratamento da lesão causada pelo trauma. Cada trabalhadora lida com esse cuidado da forma que acredita ser a mais adequada e utiliza as estratégias que dispõe para suportar e enfrentar essa realidade. Além disso, os serviços públicos de saúde necessitam se auto-avaliar e propiciar a criação de espaços e co-responsabilizar-se nesse processo.
Resumo:
O conhecimento do germoplasma disponível permite ao melhorista de fumo planejar estrategicamente o uso de genitores visando à ampliação da variância genética nas populações segregantes. Apesar de acreditar-se que a base genética do fumo é estreita, nenhum estudo foi feito com os genótipos utilizados pelos programas de melhoramento de fumo no Sul do Brasil. Os objetivos deste trabalho foram investigar a base genética e caracterizar genótipos de fumo utilizados em programas de melhoramento no Sul do Brasil através de caracteres fenotípicos e marcadores moleculares, comparando diferentes métodos quanto à capacidade de distinção de genótipos individuais. Trinta e dois genótipos de fumo foram avaliados para 32 características fenotípicas, 271 marcadores RAPD, 86 microssatélites e 484 marcadores AFLP. Características fenotípicas e marcadores moleculares RAPD e AFLP foram eficientes para distinguir os genótipos estudados, permitindo evidenciar moderada similaridade e estreita base genética. Apesar disso, foi encontrada variabilidade para as características fenotípicas de maior importância econômica em fumo, sendo possível caracterizar individualmente os 32 genótipos através de 23 das 32 características fenotípicas avaliadas. Os genótipos K-326 LF e BY-64 divergiram dos demais e se destacaram para características de importância econômica, como rendimento, índice qualitativo de folhas, teor de nicotina e percentual de talo, sendo de grande potencial como genitores em cruzamentos elite. Foram identificados marcadores RAPD e AFLP específicos, capazes de distinguir, individualmente, os genótipos estudados. Os resultados deste estudo permitem concluir que os diferentes métodos utilizados se complementam na distinguibilidade dos genótipos e devem ser utilizados conjuntamente para o desenvolvimento de germoplasma e linhagens superiores de fumo.
Resumo:
O Parque Estadual de Itapuã é considerado a última área representativa dos ecossistemas originais da região metropolitana de Porto Alegre, sendo que nos últimos 11 anos somente foi permitida a entrada de pesquisadores em suas dependências. Após este longo período em que esteve fechado, o Parque voltará a receber turistas no início de 2002, sendo que os principais destinos serão as praias. Dentre as oito praias existentes na área, somente três serão abertas à visitação, sendo a Praia de Fora a maior delas e a única voltada para a Lagoa dos Patos. Com objetivo de fornecer subsídios para o gerenciamento da Praia de Fora, efetuou-se a análise de uma série de parâmetros morfodinâmicos consagrados na literatura mundial, aprimorando o nível de conhecimento desta praia e suas relações com a Lagoa dos Patos. Para tanto, utilizou-se os modelos de praias de Banco Único e de Bancos Múltiplos da chamada Escola Australiana com a aplicação dos seguintes parâmetros: Parâmetro Adimensional Omega (Ù), Omega Teórico (Ùterorico), Parâmetro de Banco (B), Declividade da Face de Praia (Tang ß) e Parâmetro Dimensionador de Surfe (surf scaling parameter). Outros modelos utilizados foram o Perfil de Equilíbrio de DEAN (1973), o modelo de Transporte Longitudinal dos sedimentos da zona de surfe, (SPM, 1984), o Limite Externo e Limite Interno (Profundidade de Fechamento) e o modelo de Sentido Preferencial de Transporte Perpendicular (SUNAMURA & TAKEDA, 1984). Além destes, optou-se por realizar uma análise temporal da variação da linha de praia da Praia de Fora no período entre 1978 e 2001. Os resultados obtidos indicam um ambiente com uma grande variação energética anual, sendo que a largura da face praial apresentou variações de até 16 m e a declividade de 2,8° a 11.3°. A análise dos parâmetros morfodinâmicos indicou uma praia com grande alternância de estágios morfodinâmicos, que reflete a presença de uma zona de transporte de sedimentos muito intenso por ação de ondas até a profundidade de 0,90 m, uma zona de transporte significativo entre 0,90 e 5 m e uma zona de transporte incipiente para as profundidades maiores que 6 m. O transporte no sentido longitudinal, apresenta uma bidirecionalidade com uma pequena resultante para SE e em sentido transversal apresenta uma maior incidência de transporte da zona de surfe para a antepraia, caracterizando setores erosivos na Praia de Fora. Estes setores erosivos foram detectados em 58% da extensão da Praia de Fora com uma taxa média de 3,75 m por ano. Já em 14% da extensão da praia foi observado acresção e em 28% da praia não houve variação significativa da posição da linha de praia. As taxas médias de deposição chegaram a 1,75 m por ano. A sistematização de todos os resultados permitiu a elaboração de subsídios para o gerenciamento da Praia de Fora. São eles: análise dos riscos para a segurança de banhistas na praia, manejo de dunas, restrições a explotação de areia de fundo nas adjacências da Praia de Fora e delimitação submersa do Parque de Itapuã junto à cota batimétrica dos –6m. Esta delimitação aumentaria em aproximadamente 10.920 hectares ou 196 %, a área atual de preservação do Parque de Itapuã.
Resumo:
A capacidade de encontrar e aprender as melhores trajetórias que levam a um determinado objetivo proposto num ambiente e uma característica comum a maioria dos organismos que se movimentam. Dentre outras, essa e uma das capacidades que têm sido bastante estudadas nas ultimas décadas. Uma consequência direta deste estudo e a sua aplicação em sistemas artificiais capazes de se movimentar de maneira inteligente nos mais variados tipos de ambientes. Neste trabalho, realizamos uma abordagem múltipla do problema, onde procuramos estabelecer nexos entre modelos fisiológicos, baseados no conhecimento biológico disponível, e modelos de âmbito mais prático, como aqueles existentes na área da ciência da computação, mais especificamente da robótica. Os modelos estudados foram o aprendizado biológico baseado em células de posição e o método das funções potencias para planejamento de trajetórias. O objetivo nosso era unificar as duas idéias num formalismo de redes neurais. O processo de aprendizado de trajetórias pode ser simplificado e equacionado em um modelo matemático que pode ser utilizado no projeto de sistemas de navegação autônomos. Analisando o modelo de Blum e Abbott para navegação com células de posição, mostramos que o problema pode ser formulado como uma problema de aprendizado não-supervisionado onde a estatística de movimentação no meio passa ser o ingrediente principal. Demonstramos também que a probabilidade de ocupação de um determinado ponto no ambiente pode ser visto como um potencial que tem a propriedade de não apresentar mínimos locais, o que o torna equivalente ao potencial usado em técnicas de robótica como a das funções potencias. Formas de otimização do aprendizado no contexto deste modelo foram investigadas. No âmbito do armazenamento de múltiplos mapas de navegação, mostramos que e possível projetar uma rede neural capaz de armazenar e recuperar mapas navegacionais para diferentes ambientes usando o fato que um mapa de navegação pode ser descrito como o gradiente de uma função harmônica. A grande vantagem desta abordagem e que, apesar do baixo número de sinapses, o desempenho da rede e muito bom. Finalmente, estudamos a forma de um potencial que minimiza o tempo necessário para alcançar um objetivo proposto no ambiente. Para isso propomos o problema de navegação de um robô como sendo uma partícula difundindo em uma superfície potencial com um único ponto de mínimo. O nível de erro deste sistema pode ser modelado como uma temperatura. Os resultados mostram que superfície potencial tem uma estrutura ramificada.
Resumo:
Esta pesquisa tem como objetivo analisar o impacto das fusões e aquisições no desempenho operacional dos bancos comerciais e múltiplos que operam no mercado brasileiro no período compreendido entre 1996 e 2000. Foram examinadas as mudanças na performance de uma amostra de trinta e três bancos envolvidos nestes processos. Para isto foram calculados dezenove indicadores pertencentes às seguintes categorias: retorno para os acionistas, eficiência operacional e qualidade da gerência. A seguir, foram aplicados dois tipos de testes. O teste de séries com sinal de Wilcoxon permitiu provar a significância das mudanças percentuais dos indicadores . O teste foi utilizado para avaliar as seguintes diferenças: dos indicadores de bancos - alvo e dominantes antes das fusões, dos indicadores dos bancos participantes de aquisições para um ano anterior e posterior à compra e dos indicadores dos bancos constituintes das incorporações para um ano antes e depois do acontecimento. O teste t para amostras emparelhadas foi aplicado para avaliar as diferenças nos indicadores de bancos fundidos contra bancos não fundidos durante todo o período de estudo. Foi possível verificar que os processos de aquisição e fusão não resultaram em ganhos significativos na eficiência operacional, quando a eficiência é medida por relações de despesas. Observa-se que estas proporções são maiores nos bancos fundidos, o que mostra uma desvantagem, em termos de eficiência, dos bancos fundidos em comparação com os outros bancos. Para as aquisições observou-se uma melhora nos indicadores de rentabilidade e qualidade da gerência, após a compra. Porém, em comparação com o grupo de controle estes indicadores foram inferiores na maioria dos anos. Por sua vez, as incorporações apresentaram uma diminuição nestes indicadores, mas esta redução não foi significativa. Poder-se-ia inferir que os bancos não fundidos reportaram maiores margens de lucro para os acionistas.
Resumo:
O crescimento desordenado da população e a expansão mal planejada das cidades, tem levado a precariedade das condições de saneamento e abastecimento hídrico, tornando a água um importante meio de desenvolvimento e transporte de microrganismos, muitos destes patogênicos. Desta maneira, torna-se necessário além da busca de soluções, o monitoramento eficiente e constante dos níveis e focos de contaminação. O presente trabalho teve como objetivo principal diferenciar ambientes aquáticos poluídos de não poluídos por contaminação de origem fecal, através de padrões moleculares. Para tanto foram escolhidos os arroios Feijó e Carvão, localizados na região metropolitana de Porto Alegre, Rio Grande do Sul, de onde foram coletadas amostras de água no verão e no inverno de 2001, submetidas a determinação do número mais provável (NMP) de coliformes totais e fecais, através da fermentação em tubos múltiplos. No Arroio Feijó foram observados índices de coliformes fecais superiores ao arroio Carvão, portanto o primeiro foi considerado modelo de ambiente aquático poluído e o segundo, não poluído. Seguiu-se a extração do DNA total das amostras brutas, amplificação do rDNA 16S pela PCR e clivagem destes com as enzimas de restrição Rsa I, Taq I e Alu I. Os padrões de clivagens observados com Rsa I sugerem a discriminação destes ambientes, uma variação sazonal foi observada entre as amostras de verão e inverno. O método mostrou-se sensível para uma análise comparativa entre estruturas de comunidades bacterianas em ambientes aquáticos.
Resumo:
Este trabalho investiga as mudanças de rumo na política editorial da Editora Vozes durante a gestão de Frei Ludovico Gomes de Castro como Diretor-Geral, no período compreendido entre os anos de 1964 e 1986. Mostra a ruptura que há com a orientação editorial das gestões anteriores, que publicavam obras predominantemente católicas. Sob a gestão de Frei Ludovico, a Vozes passou a investir em obras destinadas ao público universitário – traduzindo autores consagrados no meio acadêmico e editando trabalhos monográficos, dissertações e teses de professores e pesquisadores nacionais – e em um catálogo religioso caracterizado pela ousadia e a pluralidade. Através de um estudo de caso da gestão Ludovico são identificadas as orientações e as opções editoriais do período, de modo a determinar as estratégias que os editores utilizaram para garantir o cumprimento das opções assumidas e as condições históricas em que se deram. O trabalho esboça ainda um mapa das redes de relações tecidas entre os autores, os editores e os outros participantes do processo político-editorial buscando situá-las no interior do campo cultural e mostrar como se deram, no período, os cruzamentos entre esse campo e os campos político e religioso.
Resumo:
O setor residencial no Brasil consome cerca de 24% do total da energia elétrica consumida no país, e a maior parcela desta demanda se concentra nos grandes centros urbanos. Os fatores atrelados à demanda de energia elétrica deste setor são extremamente complexos e variados. A atualização de dados, o seu conhecimento, entendimento e verificação de suas relações são de extrema importância para a programação de ações, tanto visando o suprimento deste mercado, como para aquelas que busquem a otimização do uso de energia elétrica. O presente trabalho de pesquisa envolve a análise e o estudo do consumo de energia elétrica do setor residencial, onde são analisados os múltiplos aspectos relacionados ao consumo de energia elétrica de dez diferentes tipologias de edificação de uso residencial, escolhidas em uma área de 1.500 ha, situada na zona sul da cidade de Porto Alegre. Procurou-se também estabelecer relações entre as tipologias de edificação escolhidas para análise e os respectivos consumos de energia elétrica. Buscou-se ainda verificar qual o peso desta relação frente aos demais aspectos relacionados com o consumo de energia elétrica, tais como renda familiar, densidade habitacional e hábitos de uso entre outros. Concluiu-se que a correlação, entre as variáveis relacionadas com as tipologias e o consumo de energia elétrica se apresentou muito baixa. No entanto a correlação entre os valores médios das diversas variáveis estudadas e o consumo de energia elétrica se apresentou bastante alto.
Resumo:
A justificativa de investimentos em Tecnologia da Informação (TI) é um processo de decisão estratégico. Contudo, muitos tomadores de decisão, dada a complexidade dos problemas, acabam por reduzi-lo a um único critério, normalmente monetário, ou a utilizar critérios mais facilmente mensuráveis, em detrimento daqueles relacionados a possíveis benefícios estratégicos ligados à TI. Esse fato pode ser associado à falta de instrumentos de apoio à decisão com habilidade de capturar todos os múltiplos aspectos envolvidos na justificativa de investimentos em TI. A Pesquisa Operacional pode auxiliar esse processo através do desenvolvimento de modelos multicriteriais, visando contemplar, conjuntamente, os aspectos tangíveis e intangíveis normalmente associados a esse tipo de investimento. Nesse sentido, este trabalho apresenta o desenvolvimento de um modelo de decisão multicriterial para a justificativa de investimentos em TI. A implementação do modelo foi realizada utilizando-se o método AHP (do inglês, “Analytic Hierarchy Process”), através do software Expert Choiceâ. O modelo foi validado através da sua submissão a vinte especialistas da área e através da sua aplicação em problemas de decisão. Os resultados obtidos na validação comprovam a generalidade e o potencial do modelo como ferramenta de decisão para o processo de justificativa de investimentos em TI.
Resumo:
A programação paralela é sem dúvida mais complexa do que a programação seqüencial. O controle de múltiplos processos e de suas interações são as principais razões para tal complexidade. Apesar da existência de algumas ferramentas que atendem à fase de desenvolvimento de programas paralelos, a complexidade é normalmente passada para as ferramentas paralelas, isto é, as ferramentas não são de fácil utilização. Assim, existe uma necessidade de ambientes e ferramentas realmente fáceis de usar no âmbito da programação paralela. Embora existam algumas ferramentas interessantes, inclusive algumas comerciais, seu uso permanece insuficiente, em parte devido à complexidade na utilização de algumas delas, em parte devido ao seu uso específico em determinadas plataformas. Portanto, existe ainda um grande campo de estudo no que diz respeito a melhorias de projeto sobre ferramentas existentes e desenvolvimento de ferramentas com um maior número de recursos. Provavelmente, a ferramenta paralela mais necessária aos programadores é o depurador paralelo. Por sua vez, ferramentas de depuração paralela estão entre as mais complexas de se desenvolver e talvez isso explique o motivo pelo qual poucas têm sido efetivamente utilizadas. Este trabalho descreve uma contribuição no campo da depuração paralela através da análise de interfaces de depuração paralela e da proposta de um modelo. A partir deste modelo, uma interface de depuração paralela – PADI (PArallel Debugger Interface) foi desenvolvida e seu principal objetivo é o de oferecer uma interface intuitiva e de fácil utilização. O modelo proposto e conseqüentemente a ferramenta PADI tratam da depuração paralela simbólica on-line. A depuração on-line trata do oferecimento de acesso aos símbolos do programa, como variáveis e registradores. A depuração on-line diferencia-se da off-line pelo tipo de interação com a execução do programa. A depuração on-line oferece interação direta com a aplicação, enquanto que a off-line interage com um arquivo de monitoração gravado durante a execução da aplicação paralela. A depuração on-line é similar à depuração seqüencial tradicional e, conseqüentemente, é de mais fácil utilização por parte da maioria dos programadores.