175 resultados para Blocos Funcionais
Resumo:
Dada a escassez de informação (principalmente de vazão) nas sub-bacias urbanas, os parâmetros das metodologias usadas no dimensionamento de uma rede de macrodrenagem são estimados a partir de características físicas, introduzindo incertezas sobre os valores corretos do parâmetro. Neste trabalho são apresentados resultados que indicam o impacto que as incertezas nos parâmetros têm sobre os valores da vazão e custo da rede, e custo estimado para redução das mesmas. Foram analisados os parâmetros das metodologias dos blocos alternados utilizada na determinação da chuva de projeto; da “Curva Número” do SCS utilizada para determinação da precipitação efetiva; e de Clark e Hidrograma Unitário Triangular (SCS) empregadas para a propagação de vazão. Também foi analisado o efeito da variabilidade espacial da chuva. Da análise de sensibilidade dos parâmetros determinou-se que para simulação distribuída da bacia, o CN resultou o parâmetro mais sensível. Por exemplo, para um incremento de uma unidade no CN foram encontradas variações de entre 8 e 10% na vazão, o que representa um incremento de 5% no custo. Também foram significativas as diferenças na chuva de projeto obtidas a partir de diferentes IDFs de postos pluviométricos próximos (diferenças de até 80% na vazão ou seja 40% no custo. Mudanças no valor do tempo de concentração somente tiveram efeito significativo na simulação concentrada da bacia; já variações do parâmetro de forma no HTA do método de Clark não tiveram efeitos sobre a vazão ou custo. Por outro lado, os custos de medição de chuva e vazão, necessários para geração da informação que permitiria reduzir a incerteza resultam menores ao impacto produzido por um erro 1% no CN, ressaltando a importância de efetuar coleta contínua de dados de vazão.
Resumo:
No processo de desdobramento dos blocos de granito e basalto, os teares utilizam granalha de ferro/aço como abrasivo gerando grandes quantidades de material fino a base dos minerais constituintes das rochas, da granalha cominuída e do desgaste das lâminas (lama abrasiva). Este trabalho tem por objetivo caracterizar a lama abrasiva no estágio em que esta sai do processo de desdobramento das rochas (rejeito). Isto acontece quando a granalha atinge a fração < 0,42 mm e perde suas propriedades abrasivas, dispensando, desta forma, sua presença no sistema. O equipamento utilizado para a retirada da lama não abrasiva é o hidrociclone, que através do overflow conduz o rejeito a uma bacia de decantação. A caracterização do rejeito foi realizada tanto em amostras individuais, como em amostras coletadas diretamente nos tanques de decantação provenientes da serragem de diferentes tipos litológicos, enfatizando, principalmente, os aspectos físicos (morfológico e granulométrico) que caracterizam esta lama não abrasiva. Este estudo busca, também, quantificar o volume produzido de rejeito pelas principais empresas de desdobramento do setor, bem como o provável aproveitamento econômico, através de métodos de separação mineral apropriados, de modo que se determine uma rota viável na ordem técnica e econômica. Outro aspecto abordado foi o impacto ambiental gerado pela deposição destes rejeitos, uma vez que, poucas empresas do setor têm a preocupação efetiva de adequar suas bacias de decantação com as normas vigentes da legislação ambiental. Após o esgotamento dessas bacias, os rejeitos são descartados em aterros próximos às empresas ou nos “lixões” e aterros das prefeituras municipais. Observa-se, desta forma, que não há o devido tratamento, haja vista, o material apresentar elevado percentual de sólidos (ferro, quartzo, feldspato) e pH em torno de 12 (alcalino).
Resumo:
Os debates sobre os temas de comércio internacional têm crescido no Brasil a ponto de mobilizarem a opinião pública, em torno da importância da integração econômica dos países, bem como as desvantagens inerentes a este processo. Essas discussões tendem a crescer ainda mais com a proximidade da criação da ALCA, prevista para janeiro de 2006. Dentro desse contexto de globalização e formação de blocos econômicos, empresários ligados ao setor moveleiro vem investindo na modernização do parque industrial, bem como na capacitação da mão de obra. O Governo Federal vem promovendo pesquisas, com o intuito de apresentar informações ao setor, de forma a prepará-lo para competir internacionalmente. Desta forma, o setor moveleiro nacional tem aumentado a sua representatividade dentro da economia brasileira e a sua produtividade, em alguns segmentos, tem se aproximado dos níveis internacionais. O Objetivo geral desse trabalho é o de contextualizar a ALCA dentro da história econômica mundial, apresentando a proposta de sua criação, os resultados das negociações, assim como os dados econômicos e comerciais dos principais países envolvidos nessa negociação. Especificamente, abordaremos o setor moveleiro do estado do RS A proposta desse trabalho é identificar o impacto da implantação da ALCA sobre a indústria moveleira local, ou seja, verificar se a produção de móveis gaúchos está preparada para uma possível integração econômica das Américas.
Resumo:
A literatura tem mostrado, por intermédio de estudos com animais e seres humanos, que o uso reduzido da musculatura (como por exemplo, a imobilização de um segmento) produz uma série de alterações estruturais e funcionais no músculo esquelético. As principais alterações observadas no músculo após a redução do uso estão relacionadas com alterações nas propriedades bioquímicas, na composição de fibras musculares, atrofia muscular, redução na capacidade de produção de força, e redução na capacidade de ativação. Apesar de a maior parte dos estudos sobre o assunto ter sido realizada em modelos animais (os quais possibilitam o estudo invasivo dos mecanismos de adaptação), a incidência de lesões articulares em seres humanos tem motivado os pesquisadores a buscar métodos alternativos e nãoinvasivos para o diagnóstico e acompanhamento das lesões articulares. Tendo em vista que a mecanomiografia (MMG) é uma técnica não-invasiva que permite o estudo do comportamento mecânico e fisiológico do músculo, acredita-se que esta técnica, associada com a avaliação da capacidade de produção de força e com a eletromiografia (EMG), possa ser um método útil no diagnóstico das alterações produzidas por essas lesões e no acompanhamento de programas de reabilitação. O objetivo desse estudo foi avaliar as adaptações musculares após um período de imobilização de duas semanas. Três estudos foram desenvolvidos, sendo os dois primeiros com seres humanos e o terceiro em um modelo animal. O primeiro estudo avaliou as respostas eletromiográficas, mecanomiográficas e de torque dos músculos flexores plantares e dos flexores dorsais do tornozelo durante esforço voluntário. Foram avaliados 23 indivíduos que tiveram seus tornozelos imobilizados em função de um entorse de grau II, e 32 indivíduos saudáveis, que fizeram parte do grupo controle. O segundo estudo, por sua vez, investigou as alterações no comportamento mecânico dos mesmos grupos musculares do estudo 1, ao longo de um protocolo de contrações produzidas via estimulação elétrica, utilizando-se várias freqüências de estimulação (de 5 a 60 Hz). Nos dois estudos, os valores de torque dos flexores plantares e dos flexores dorsais no grupo imobilizado foram significativamente inferiores aos do grupo controle. Essa redução foi mais evidente nos flexores plantares do que nos flexores dorsais. Os valores root mean square (RMS) do sinal EMG, durante a CVM (estudo 1), foram significativamente menores nos músculos gastrocnêmio medial (GM), sóleo (SOL) e tibial anterior (TA) do grupo que foi imobilizado quando comparado ao grupo controle. A mediana da freqüência (MDF) do sinal EMG, durante a CVM, no estudo 1, não apresentou diferença significativa entre os dois grupos da amostra, em nenhum dos três músculos estudados (GM, SOL e TA). Os valores RMS e a MDF do sinal MMG dos músculos GM, SOL e TA não apresentaram diferenças significativas entre os dois grupos da amostra, em nenhum dos dois estudos, indicando que a técnica da MMG não foi capaz de revelar as alterações musculares produzidas por um período de imobilização. O terceiro estudo avaliou as alterações das propriedades mecânicas devido a alterações no comprimento muscular e na freqüência de estimulação nos músculos SOL de 3 gatos. As relações força-comprimento foram estabelecidas ao nível articular, muscular, das fibras musculares e dos sarcômeros. Os resultados demonstraram que as variações de comprimento da fibra diferem das variações de comprimento do músculo como um todo, principalmente nos comprimentos mais encurtados. Existe um maior encurtamento da fibra com o aumento da freqüência de estimulação nos menores comprimentos musculares, enquanto nos maiores comprimentos musculares o aumento da freqüência de estimulação tem um efeito similar sobre as fibras e o músculo como um todo. Os principais achados do presente estudo são de que as respostas da EMG e de torque são alteradas por um período de 2 semanas de imobilização, enquanto as respostas da MMG não, e que o comprimento muscular é uma importante variável que deve ser controlada a nível tanto das fibras musculares, quanto dos componentes elásticos no estudo das propriedades mecânicas do músculo esquelético.
Resumo:
Com o advento dos processos submicrônicos, a capacidade de integração de transistores tem atingido níveis que possibilitam a construção de um sistema completo em uma única pastilha de silício. Esses sistemas, denominados sistemas integrados, baseiam-se no reuso de blocos previamente projetados e verificados, os quais são chamados de núcleos ou blocos de propriedade intelectual. Os sistemas integrados atuais incluem algumas poucas dezenas de núcleos, os quais são interconectados por meio de arquiteturas de comunicação baseadas em estruturas dedicadas de canais ponto-a-ponto ou em estruturas reutilizáveis constituídas por canais multiponto, denominadas barramentos. Os futuros sistemas integrados irão incluir de dezenas a centenas de núcleos em um mesmo chip com até alguns bilhões de transistores, sendo que, para atender às pressões do mercado e amortizar os custos de projeto entre vários sistemas, é importante que todos os seus componentes sejam reutilizáveis, incluindo a arquitetura de comunicação. Das arquiteturas utilizadas atualmente, o barramento é a única que oferece reusabilidade. Porém, o seu desempenho em comunicação e o seu consumo de energia degradam com o crescimento do sistema. Para atender aos requisitos dos futuros sistemas integrados, uma nova alternativa de arquitetura de comunicação tem sido proposta na comunidade acadêmica. Essa arquitetura, denominada rede-em-chip, baseia-se nos conceitos utilizados nas redes de interconexão para computadores paralelos. Esta tese se situa nesse contexto e apresenta uma arquitetura de rede-em-chip e um conjunto de modelos para a avaliação de área e desempenho de arquiteturas de comunicação para sistemas integrados. A arquitetura apresentada é denominada SoCIN (System-on-Chip Interconnection Network) e apresenta como diferencial o fato de poder ser dimensionada de modo a atender a requisitos de custo e desempenho da aplicação alvo. Os modelos desenvolvidos permitem a estimativa em alto nível da área em silício e do desempenho de arquiteturas de comunicação do tipo barramento e rede-em-chip. São apresentados resultados que demonstram a efetividade das redes-em-chip e indicam as condições que definem a aplicabilidade das mesmas.
Resumo:
Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.
Resumo:
This thesis presents the study and development of fault-tolerant techniques for programmable architectures, the well-known Field Programmable Gate Arrays (FPGAs), customizable by SRAM. FPGAs are becoming more valuable for space applications because of the high density, high performance, reduced development cost and re-programmability. In particular, SRAM-based FPGAs are very valuable for remote missions because of the possibility of being reprogrammed by the user as many times as necessary in a very short period. SRAM-based FPGA and micro-controllers represent a wide range of components in space applications, and as a result will be the focus of this work, more specifically the Virtex® family from Xilinx and the architecture of the 8051 micro-controller from Intel. The Triple Modular Redundancy (TMR) with voters is a common high-level technique to protect ASICs against single event upset (SEU) and it can also be applied to FPGAs. The TMR technique was first tested in the Virtex® FPGA architecture by using a small design based on counters. Faults were injected in all sensitive parts of the FPGA and a detailed analysis of the effect of a fault in a TMR design synthesized in the Virtex® platform was performed. Results from fault injection and from a radiation ground test facility showed the efficiency of the TMR for the related case study circuit. Although TMR has showed a high reliability, this technique presents some limitations, such as area overhead, three times more input and output pins and, consequently, a significant increase in power dissipation. Aiming to reduce TMR costs and improve reliability, an innovative high-level technique for designing fault-tolerant systems in SRAM-based FPGAs was developed, without modification in the FPGA architecture. This technique combines time and hardware redundancy to reduce overhead and to ensure reliability. It is based on duplication with comparison and concurrent error detection. The new technique proposed in this work was specifically developed for FPGAs to cope with transient faults in the user combinational and sequential logic, while also reducing pin count, area and power dissipation. The methodology was validated by fault injection experiments in an emulation board. The thesis presents comparison results in fault coverage, area and performance between the discussed techniques.
Resumo:
A desfolhação e o pisoteio animal podem afetar a cobertura vegetal e alterar a dinâmica do calcário no solo. Este trabalho estudou um sistema de integração lavoura-pecuária com níveis de biomassa de pastagem e seu reflexo sobre o solo, o desenvolvimento da soja e a dinâmica da correção da acidez a partir da superfície do solo. O experimento foi conduzido em um Latossolo Vermelho, em uma pastagem de aveia preta + azevém manejada sob diferentes alturas. O delineamento experimental foi o de blocos ao acaso com quatro tratamentos (10, 20, 30 e 40 cm de altura de manejo) e três repetições. Utilizou-se terneiros jovens em pastejo contínuo, com lotação variável, em dois períodos de pastejo (2001 e 2002). No final do primeiro período aplicou-se 4,5 Mg ha-1 de calcário na área, implantando-se a cultura da soja. As alturas da pastagem afetaram a massa de forragem e o desempenho dos animais. Na média dos dois anos, maiores rendimentos individuais e por área foram obtidos com pastagem manejada nas alturas médias de 25 e 10 cm, respectivamente. Após o pastejo, somente no manejo a 10 cm a densidade e a macroporosidade do solo atingiram valores que podem limitar o desenvolvimento da soja na camada de 0-2,5 cm. Efeitos sobre os atributos químicos manifestaram-se até 5 cm de profundidade, cinco meses após a calagem, avançando com o tempo, independentemente da condição anterior de pastejo. A população de plantas e o rendimento da soja diminuíram com a redução da altura de manejo da pastagem. Houve equivalência de rendimento econômico entre todos os tratamentos, sendo a diminuição do rendimento de soja, em situação de alta intensidade de pastejo, compensada pelo aumento do rendimento animal por unidade de área. O rendimento de soja na área sem pastejo foi similar àquele obtido em áreas com intensidade de pastejo leve.
Resumo:
Muitos aplicativos atuais, envolvendo diversos domínios de conhecimento, são estruturados como arquiteturas de software que incorporam, além dos requisitos funcionais, requisitos não funcionais, como segurança, por exemplo. Tais requisitos podem constituir um domínio próprio, e, portanto, serem comuns a várias outras arquiteturas de software. Tecnologias como Programação Orientada a Aspectos, Reflexão Computacional e Padrões de Projeto colaboram no desenvolvimento de arquiteturas que provêem a separação de requisitos não funcionais. Porém, sua experimentação e adoção no domínio da segurança computacional ainda é incipiente. O foco deste trabalho é a elaboração de um padrão de projeto voltado à segurança, utilizando como arquitetura conceitual programação orientada a aspectos, e como arquitetura de implementação, reflexão computacional. A composição destas tecnologias resulta em um middleware orientado à segurança, voltado a aplicações desenvolvidas em Java. Estuda-se as tecnologias, seus relacionamentos com a área de segurança, seguido da proposta de uma arquitetura de referência, a partir da qual é extraído um protótipo do middleware de segurança. Este, por sua vez, provê mecanismos de segurança tão transparentes quanto possível para as aplicações que suporta. Com o objetivo de realizar a implementação do middleware de segurança, também são estudadas os mecanismos de segurança da plataforma Java, porém limitado ao escopo deste trabalho. Segue-se o estudo da base conceitual das tecnologias de Reflexão Computacional, o modelo de implementação, seguido de Programação Orientada a Aspectos, o modelo conceitual, e, por fim, têm-se os Padrões de Projeto, a arquitetura de referência. Integrando as três tecnologias apresentadas, propõe-se um modelo, que estabelece a composição de um Padrão Proxy, estruturado de acordo com a arquitetura reflexiva. Este modelo de arquitetura objetiva implementar o aspecto de segurança de acesso a componentes Java, de forma não intrusiva,. Baseado no modelo, descreve-se a implementação dos diversos elementos do middleware, estruturados de forma a ilustrar os conceitos propostos. Ao final, apresenta-se resultados obtidos durante a elaboração deste trabalho, bem como críticas e sugestões de trabalhos futuros.
Resumo:
O presente estudo visa diagnosticar as práticas de responsabilidade social em escolas situadas em municípios do Vale do Taquari (Rio Grande do Sul, Brasil). Este esforço foi implementado a partir da busca de compreensão dos princípios da responsabilidade social empresarial e do conceito de sustentabilidade, e com base nas diretrizes dos indicadores Ethos de responsabilidade social 2004, adaptados às escolas. Para tanto, foi realizada uma pesquisa (interpretativa e baseada em estudo de casos múltiplos) visando a identificar as práticas de responsabilidade social às quais os diversos stakeholders estão expostos, bem como os fatores que levam as escolas a adotar estas práticas. Também foi verificado se as práticas existentes nas escolas são implementadas com um planejamento adequado, e onde estão as lacunas de responsabilidade social destas instituições. Como efeito do estudo, foi constatado que as práticas evidenciadas, relacionadas a cada stakeholder, diferem de uma escola para outra, e que há planejamento para a implementação da maioria das práticas constatadas. As lacunas de responsabilidade social das escolas, em diversas circunstâncias, se mostram bastante similares. No entanto, estas instituições apresentam diferentes desempenhos em relação aos blocos temáticos da pesquisa, os quais abordam distintos aspectos da responsabilidade social.
Resumo:
Dois experimentos e um levantamento por amostragem foram analisados no contexto de dados espaciais. Os experimentos foram delineados em blocos completos casualizados sendo que no experimento um (EXP 1) foram avaliados oito cultivares de trevo branco, sendo estudadas as variáveis Matéria Seca Total (MST) e Matéria Seca de Gramíneas (MSGRAM) e no experimento dois (EXP 2) 20 cultivares de espécies forrageiras, onde foi estudada a variável Percentagem de Implantação (%IMPL). As variáveis foram analisadas no contexto de modelos mistos, sendo modelada a variabilidade espacial através de semivariogramas exponencias, esféricos e gaussianos. Verificou-se uma diminuição em média de 19% e 14% do Coeficiente de Variação (CV) das medias dos cultivares, e uma diminuição em média de 24,6% e 33,3% nos erros padrões dos contrastes ortogonais propostos em MST e MSGRAM. No levantamento por amostragem, estudou-se a associação espacial em Aristida laevis (Nees) Kunth , Paspalum notatum Fl e Demodium incanum DC, amostrados em uma transecção fixa de quadros contiguos, a quatro tamanhos de unidades amostrais (0,1x0,1m; 0,1x0,3m; 0,1x0,5m; e 0,1x1,0m). Nas espécies Aristida laevis (Nees) Kunth e Paspalum notatum Fl, existiu um bom ajuste dos semivariogramas a tamanhos menores das unidades amostrais, diminuíndo quando a unidade amostral foi maior. Desmodium incanum DC apresentou comportamento contrario, ajustando melhor os semivariogramas a tamanhos maiores das unidades amostrais.
Resumo:
Com o objetivo de estudar os efeitos da adubação sobre os componentes do rendimento, no potencial de produção, qualidade e composição química das sementes de C. pepo L variedade melopepo (Caserta) conduziu-se dois Estudos no Centro Agrícola Demonstrativo da Prefeitura de Porto Alegre/CAD, e no Laboratório de Análise de Sementes do Departamento de Plantas forrageiras e Agrometeorologia da Faculdade de Agronomia da Universidade Federal do Rio Grande do Sul (UFRGS) nos períodos de 2000/01 e 2002/03. No primeiro estudo utilizou-se dois tipos de adubação uma orgânica (cama de aviário- 386g/cova), e outra mineral (fórmula 5-20-20). No segundo estudo, os tratamentos constaram de:T1= testemunha, T2= adubação mineral, e 4 doses de cama de aviário: T3= 63g/cova, T4= 125 g/cova, T5= 187g/cova, T6= 250g/cova. O delineamento experimental foi o de blocos casualizados com 4 e 3 repetições no primeiro e segundo estudos, respectivamente. Foram determinados: número de flores/planta, número de frutos/planta, peso médio de frutos, peso de sementes/fruto, número de sementes/fruto, peso de 1000 sementes, rendimento de sementes/área, germinação, emergência em campo, teste de frio, condutividade elétrica, comprimento de plântula, composição centesimal (Cinza, PB, EE, FB, ENN, NDT, EB, MO), macronutrientes (N, P, K, Ca, MG, S) e micronutrientes (Cu, Zn, Fe, Mn, Na, B). No primeiro estudo, tanto a adubação mineral como a adubação orgânica não afetaram os componentes do rendimento, o rendimento/área, a qualidade e a composição química de sementes. No segundo estudo, a aplicação de cama de aviário aumentou o rendimento de sementes de abobrinha e os teores de nitrogênio e ferro nas sementes, porém não afetou a qualidade. A dose de cama de aviário que proporcionou o melhor resultado foi de 250g/cova (3,12 t/ha).
Resumo:
Neste início de década, observa-se a transformação das áreas de Computação em Grade (Grid Computing) e Computação Móvel (Mobile Computing) de uma conotação de interesse emergente para outra caracterizada por uma demanda real e qualificada de produtos, serviços e pesquisas. Esta tese tem como pressuposto a identificação de que os problemas hoje abordados isoladamente nas pesquisas relativas às computações em grade, consciente do contexto e móvel, estão presentes quando da disponibilização de uma infra-estrutura de software para o cenário da Computação Pervasiva. Neste sentido, como aspecto central da sua contribuição, propõe uma solução integrada para suporte à Computação Pervasiva, implementada na forma de um middleware que visa criar e gerenciar um ambiente pervasivo, bem como promover a execução, sob este ambiente, das aplicações que expressam a semântica siga-me. Estas aplicações são, por natureza, distribuídas, móveis e adaptativas ao contexto em que seu processamento ocorre, estando disponíveis a partir de qualquer lugar, todo o tempo. O middleware proposto, denominado EXEHDA (Execution Environment for Highly Distributed Applications), é adaptativo ao contexto e baseado em serviços, sendo chamado de ISAMpe o ambiente por este disponibilizado. O EXEHDA faz parte dos esforços de pesquisa do Projeto ISAM (Infra-Estrutura de Suporte às Aplicações Móveis Distribuídas), em andamento na UFRGS. Para atender a elevada flutuação na disponibilidade dos recursos, inerente à Computação Pervasiva, o EXEHDA é estruturado em um núcleo mínimo e em serviços carregados sob demanda. Os principais serviços fornecidos estão organizados em subsistemas que gerenciam: (a) a execução distribuída; (b) a comunicação; (c) o reconhecimento do contexto; (d) a adaptação; (e) o acesso pervasivo aos recursos e serviços; (f) a descoberta e (g) o gerenciamento de recursos No EXEHDA, as condições de contexto são pró-ativamente monitoradas e o suporte à execução deve permitir que tanto a aplicação como ele próprio utilizem essas informações na gerência da adaptação de seus aspectos funcionais e não-funcionais. O mecanismo de adaptação proposto para o EXEHDA emprega uma estratégia colaborativa entre aplicação e ambiente de execução, através da qual é facultado ao programador individualizar políticas de adaptação para reger o comportamento de cada um dos componentes que constituem o software da aplicação. Aplicações tanto do domínio da Computação em Grade, quanto da Computação Pervasiva podem ser programadas e executadas sob gerenciamento do middleware proposto.
Resumo:
O objetivo deste trabalho é a definição de um conjunto de roteiros para o ensino de arquitetura de computadores com enfoque em arquiteturas superescalares. O procedimento é baseado em simulação e verificação da influência dos parâmetros arquiteturais dos processadores, em termos funcionais e de desempenho. É dada ênfase a conceitos como memória cache, predição de desvio, execução fora de ordem, unidades funcionais e etc. Através do estudo e avaliação dos parâmetros que constituem estes conceitos, procurava-se através dos roteiros identificar as configurações com melhor desempenho. Para a implementação destes roteiros é dotado o conjunto de ferramentas de simulação SimpleScalar. Este conjunto, além de estar disponibilizado em código aberto na página oficial das ferramentas, traz como vantagem a possibilidade de alteração do código para fins de pesquisa. Este trabalho e os roteiros que o compõem têm como objetivos auxiliar professores e estimular os alunos através de simulações, como forma didática de testar conceitos vistos em sala de aula. Os roteiros são apresentados com os respectivos resultados de simulação e incrementados com comentários e sugestões de um conjunto de perguntas e respostas para que o trabalho possa ter continuidade necessária, partindo da sala de aula para a simulação, busca de respostas e culminando com um relatório final a ser avaliado.
Resumo:
Este trabalho de conclusão aborda a satisfação de clientes em uma organização sem fins lucrativos. Através de um estudo de caso, procedeu-se uma avaliação qualitativa por meio de observação participante do pesquisador, percepções dos professores e acadêmicos envolvidos no atendimento prestado pelo Serviço de Nutrição do Centro Universitário Franciscano- UNIFRA, e também dos usuários finais do serviço. Objetivou-se, assim, avaliar como a satisfação de clientes é gerenciada neste serviço, usando-se as variáveis de pesquisa: estratégia, sistemas e pessoas como norteadoras das investigações efetuadas. Com o intuito de atingir os propósitos do estudo, o público envolvido no atendimento, composto por coordenador do serviço e professores, foi ouvido por meio de entrevistas semi-estruturadas. No público constituído de acadêmicos que prestam o atendimento e usuários do serviço foi utilizada a técnica de entrevista de grupos focalizados. Para o tratamento dos dados coletados procedeu-se a sua descrição, análise e interpretação. A análise dos resultados foi apresentada em blocos que contemplam: estratégia, sistemas e pessoas. As opiniões emitidas pelos públicos consultados e a observação do pesquisador apontaram acertos e oportunidades de melhoria no serviço prestado, dando indicativos de dimensões importantes para o gerenciamento da satisfação de clientes deste serviço.