13 resultados para Conjunto de vetores

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma técnica de programação e controle da construção repetitiva denominada Linha de Balanço. E uma técnica, surgida na indústria fabril, onde a produção em série e em grande escala exige a organização dos métodos de produção e a racionalização do trabalho. O estudo, inicialmente, modela o trabalho de construção de unidades repetitivas, salientando os problemas de organização e administração destes empreendimentos. Num segundo momento, são apresentados os princípios teóricos da técnica com aplicações práticas da programação. Por fim, é analisada a metodologia usual de construção de conjuntos habitacionais através de um estudo de caso e, observadas as condições de aplicação da técnica da Linha de Balanço, não exigindo mudificações muito profundas na atual ação gerencial neste tipo de obra. As conclusões esboçadas confirmam as vantagens da técnica da Linha de Balanço para estes empreendimentos e propõem a sua utilização na organização do trabalho nos canteiros repetitivos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, estudamos a interação de íons com um conjunto quase-monocromático de ondas eletrostáticas de frequência na faixa das frequências híbridas inferiores, propagando-se perpendicularmente a um campo magnético uniforme. Consideramos que as fases das ondas são aleatoriamente distribuídas (ondas incoerentes), tratando o caso de ondas de fases coerentes (ondas coerentes) como um caso particular. Derivamos o Hamiltoniano adequado a esse sistema, e deduzimos as equações de movimento, cujas soluções são analisadas numericamente, mostrando a ocorrência de difusão estocástica no espaçoo de fase ângulo-ação, para amplitudes de onda suficientemente grandes. Também fazemos estimativas sobre a amplitude mínima (threshold) para o aparecimento de ilhas de primeira ordem no espaço de fase. Estimamos, também, o limiar para as ilhas de segunda ordem e de ordens maiores, bem como o limiar de estocasticidade. A análise mostra que para o caso de várias ondas o comportamento estocástico ocorre antes do limiar de estocasticidade comparado com o caso de uma onda. No caso de ondas coerentes, observa-se que o limiar de estocasticidade diminui com o aumento do número de ondas que comp˜oem o conjunto de ondas, proporcionalmente ao inverso da raiz quadrada deste número, portanto, tendendo a ser nulo no limite em que o número de ondas no pacote tende a infinito. No caso de ondas incoerentes, observa-se também uma diminuição do limiar de estocasticidade com o aumento do número de ondas, mas nesse caso, saturando com valor até um terço do valor do limiar de estocasticidade para o caso de uma onda. Observa-se também que o limite superior da região de estocasticidade no espaço de fase aumenta com o aumento do número de ondas. No caso de ondas coerentes, esse aumento é proporcional à raiz cúbica do número de ondas que compõem o conjunto de ondas. No caso de ondas incoerentes o limite superior da região de estocasticidade têm um aumento de até o dobro em relação ao caso de uma onda. A análise também mostra que o mecanismo da estocasticidade para o caso de várias ondas é diferente do mecanismo atuante no caso de uma onda. No caso de uma onda, a estocasticidade ocorre por superposição de ilhas de ordens maiores do que um, com o aumento da intensidade da onda. No caso de várias ondas, a presençaa de ondas de frequências próximas à frequência de ressonância causa pequenas perturbações na trajetória principal das partículas, causada pela onda central, espalhando-a pelo espaço de fase de forma mais eficiente que o mecanismo de estocasticidade para o caso de uma onda.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho discute o estabelecimento de indicadores de desempenho para uma organização pública, segundo os preceitos do Balanced Scorecard. Tem por objetivo geral o estabelecimento de um conjunto equilibrado de indicadores de desempenho. Está calcado em uma pesquisa bibliográfica, abrangendo obras clássicas e trabalhos científicos referentes ao Balanced Scorecard. Apresenta um Estudo de Caso, relativo à Coordenação da Receita do Estado do paraná, órgão da Administração Pública, voltado para a arrecadação de tributos estaduais. O estudo envolve pesquisas dirigidas a funcionários que ocupam e/ou já ocuparam diversos cargos dentro da organização, denominados de "Grupo Pensamento Convergente", cujas opiniões foram colhidas por meio de questionários. O trabalho detalha e analisa o processo de elaboração da Visão, da Missão, dos Objetivos Estratégicos, dos Vetores de Desempenho e das Ações Estratégicas correspondentes.Em conjunto, esses elementos caracterizam um arquétipo, que possibilita uma visão geral de todo processo, suportando e direcionando as decisões gerenciais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este memorial investiga os procedimentos composicionais utilizados na composição de um conjunto de seis obras durante o período de 2002–2004. Esta reflexão segue a lógica da causa e efeito, apontando as relações entre a motivação principal do compositor – a busca por direcionamento musical – e as diversas decisões composicionais e procedimentos técnicos utilizados para alcançá-la, tais como a extensiva utilização de processos direcionais lineares coordenados em diversos parâmetros musicais e a utilização de objetos sonoros. Também são discutidas algumas conseqüências decorrentes desta conduta composicional, abordando temas como a sensação de que a música se move adiante no tempo e a linearidade, e traçando analogias entre a música e alguns aspectos das artes plásticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é a definição de um conjunto de roteiros para o ensino de arquitetura de computadores com enfoque em arquiteturas superescalares. O procedimento é baseado em simulação e verificação da influência dos parâmetros arquiteturais dos processadores, em termos funcionais e de desempenho. É dada ênfase a conceitos como memória cache, predição de desvio, execução fora de ordem, unidades funcionais e etc. Através do estudo e avaliação dos parâmetros que constituem estes conceitos, procurava-se através dos roteiros identificar as configurações com melhor desempenho. Para a implementação destes roteiros é dotado o conjunto de ferramentas de simulação SimpleScalar. Este conjunto, além de estar disponibilizado em código aberto na página oficial das ferramentas, traz como vantagem a possibilidade de alteração do código para fins de pesquisa. Este trabalho e os roteiros que o compõem têm como objetivos auxiliar professores e estimular os alunos através de simulações, como forma didática de testar conceitos vistos em sala de aula. Os roteiros são apresentados com os respectivos resultados de simulação e incrementados com comentários e sugestões de um conjunto de perguntas e respostas para que o trabalho possa ter continuidade necessária, partindo da sala de aula para a simulação, busca de respostas e culminando com um relatório final a ser avaliado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo foi realizado a partir da observação de uma sucessão de enchentes ocorridas entre os anos de 1936 a 1997, na cidade de Camaquã/RS. Diante da constatação da ocorrência destes fenômenos, fez-se necessário a realização de um estudo mais detalhado e de cunho científico das prováveis causas destas ocorrências. Aliado a isto, foi constatado que as providências adotadas pelas autoridades competentes, tanto da parte técnica quanto das ações políticas, não obtiveram resultados satisfatórios. Visando esclarecer a comunidade local à questão das enchentes do ponto de vista técnico, este estudo apresenta propostas de transformação futura dessa questão por meio de informação, do planejamento participativo, pela consolidação das organizações sociais e por uma nova mentalidade face à água. Partindo-se da experiência de casos similares, procurou-se caracterizar e avaliar os impactos causados pelas enchentes, tendo como objetivos: a elaboração de um mapa de riscos, a definição da cota máxima e mínima das inundações, propor ações mitigadoras frente aos desastres, fornecer subsídios para atualização do Plano Diretor Urbano e auxiliar a Defesa Civil na elaboração de um plano de ação para situações de calamidades públicas, assim como também demonstrar que a ocupação desordenada de áreas urbanas compõe parte das causas das inundações O processo de investigação foi desenvolvido de uma forma empírica, onde a metodologia foi sendo criada pela observação da ocorrência de cheias in loco, auxiliada por levantamentos fotográficos, entrevistas junto a comunidade e análise de documentação histórica que comprovasse tais fenômenos. O plano de pesquisa foi criado a partir da constatação da necessidade de haver um gerenciamento adequado para a questão das inundações dentro do perímetro urbano, através de respostas que fossem convincentes e tecnicamente corretas.Por meio da utilização de levantamentos planialtimétricos elaborou-se um mapa onde foram identificadas áreas de risco em diferentes bairros de Camaquã, fazendo-se também a simulação do avanço da lâmina d’água dentro do perímetro urbano. Os aspectos da hidrogeologia local, caracterizados pelas bacias de contribuição do Arroio Duro, tiveram importância decisiva no desenvolvimento deste estudo, assim como também a análise das questões ambientais, dos problemas de drenagem urbana e de infraestrutura. Apresenta-se um conjunto de propostas que visam minimizar os impactos causados pelas enchentes por meio de ações preventivas, definindo cotas mínimas de alagamentos e identificando áreas de risco dentro do perímetro urbano, assim como, também, alternativas de moradias em áreas alagadiças e um modelo de sinalização da altura da lâmina d’água. Evidenciou-se que as prováveis causas das enchentes não foram apenas influenciadas por vetores naturais, mas, também, pela interferência antrópica no ambiente natural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se uma proposta de utilização conjunta do BSC (Balanced Scorecard – Quadro Balanceado de Indicadores) e do QFD (Quality Function Deployment – Desdobramento da Função Qualidade) no estabelecimento e priorização de indicadores de desempenho para fins de planejamento estratégico em empresas. A proposta foi motivada pela necessidade do estabelecimento de indicadores de desempenho em uma empresa prestadora de serviços de remanufatura de autopeças, de modo a satisfazer as exigências da norma ISO 9001:2000. A utilização da metodologia do QFD como etapa final na implementação do BSC no estudo de caso permitiu a priorização de indicadores de desempenho de acordo com o seu potencial de suprimento das exigências da norma ISO 9001:2000.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo de otimização multiobjetivo para servir de apoio à tomada de decisão no planejamento conjunto e colaborativo de uma cadeia de suprimentos. O sistema é construído através da reunião de duas técnicas de modelagem − controle e otimização multiobjetivo. A dinâmica da cadeia de suprimentos é representada por equações à diferença que constituem as restrições do modelo de otimização multiobjetivo. Esse modelo é construído sob o critério da otimização da lucratividade total da cadeia. A função-critério é especificada considerando os custos de transporte como variáveis relevantes para as tomadas de decisão nos diferentes níveis da cadeia. O objetivo desse sistema de apoio à decisão é auxiliar os responsáveis pelas tomadas de decisão a planejarem as políticas de atuação, na direção dos objetivos estrategicamente estabelecidos, revelando informações importantes sobre o desempenho global da cadeia. Essas informações dizem respeito às trocas compensatórias, ao efeito chicote, à satisfação do consumidor final e ao nível de serviço da cadeia de suprimentos. A partir da construção de diferentes cenários, a modelagem proposta mostrou-se adequada para ser utilizada como sistema de apoio à decisão, em um processo de planejamento otimizado da cadeia de suprimentos. A participação colaborativa de todos os níveis da cadeia é pré-requisito indispensável para a aplicação prática desse sistema de modelagem.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O universo das operações urbanas, e em última análise o permanente processo de RE construção das cidades, é o objeto do presente trabalho. Em especial, as ações que envolvem a utilização de museus como catalisadores ou vetores de transformação urbana. Para tanto, são analisados principalmente os casos dos museus Gugenheim, em Bilbao (Espanha), e Iberê Camargo, em Porto Alegre (RS). Utilizando uma experiência como contraponto da outra, observa-se que no caso da cidade espanhola o museu foi inserido como catalizador de uma operação urbana – o Projeto de Revitalização de Bilbao –, oposto do que ocorre em Porto Alegre, onde o museu é inserido na cidade sem maiores preocupações de promover ações de dinamização e transformação urbana. Complementando a análise, também serão descritos os casos de Fortaleza (CE) – Centro Cultural Dragão do Mar –, e do Rio de Janeiro (RJ) – Guggenheim Rio. A abordagem, dentre as diversas possíveis, se apoia em três aspectos principais: em primeiro lugar, procura-se, por meio de revisão bibliográfica, estabelecer conceitos/nomes para os diferentes tipos operações urbanas, que via de regra iniciam-se com o prefixo RE; logo situar os museus, tanto por sua natureza, mas sobretudo, pela importância que assumiram como atratores de público e o impacto que causaram nos usos circundantes e na dinâmica de ocupação do solo urbano; por fim, como a ótica pretendida é o da cidade como bem público levantam-se as estratégias passíveis de utilização pelo Poder Público para promover o desenvolvimento urbano, recuperando os investimentos realizados com a captura de mais valias e rendas fundiárias urbanas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta tese nós estudamos e provamos diversos teoremas de existência, unicidade e caracterização, dos pontos e dos valores críticos da conexão riemanniana de uma variedade riemanniana compacta, orientável, agindo nos espaços dos campos diferenciáveis da variedade com norma L2 um e com norma pontual um.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este memorial tem como principal objetivo apontar as inter-relações existentes entre a concepção estética dos ciclos vitais e os processos técnico-composicionais utilizados em um conjunto de composições. A concepção estética dos ciclos vitais foi obtida através de uma pesquisa baseada na análise de obras compostas anteriormente a este conjunto, e em dois referenciais teóricos principais, "Fenomenologia do Espírito" de Hegel e "O Tao da Física: um paralelo entre a física moderna e o misticismo oriental" de Capra. Também encontra fundamentos na utilização de estruturas simétricas, da proporção áurea e da série de Fibonacci, a partir de sua ligação com a natureza. As inter-relações entre as concepções estéticas e os processos técnico-composicionais são demonstradas através da análise das obras como um conjunto e individualmente. As semelhanças estruturais e dos materiais musicais unificam estas obras, caracterizando-as como um ciclo de composições, o qual reflete na macroestrutura os elementos individuais de cada composição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação dedeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador dedeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador dedeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.