953 resultados para Processos aleatórios. Não-Markovianos. Perfis de Memória


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo verificar o comportamento mecânico e físico de pozolanas artifíciais estabilizadas química e granulometricamente, curadas por dois processos de cura denominados de : autoclave(ATC), que utiliza temperaturas na faixa de 149 a 188°C e câmara à temperatura constante(CTC) que utiliza uma temperatura de ± 21°C. Também fez-se análises estatísticas com a finalidade de se determinar o efeito da energia de moldagem, temperatura e tempo de cura sobre os resultados dos ensaios, para cada processo de cura, além de se determinar modelos matemáticos para previsão de resultados de resistência através de regressões múltiplas e simples. As pozolanas artificiais empregadas foram as cinzas volante e pesada da Usina de Candiota, as quais foram estabilizadas com cal dolomítica hidratada e areia do Rio Guaíba. Os ensaios de resistência à compressão simples , absorção e perda de massa basearam-se nas normas da ABNT e DNER e para os estudos de análise estatística, fez-se anteriormente aos ensaios, dois planejamentos experimentais denominados de Split-Splot e Quadrado Latino, que foram utilizados nos processos de autoclavagem e câmara à temperatura constante, representativamente. Os Corpos-de-Prova curados na câmara à temperatura constante, até os 28 dias de cura, apresentaram resultados de resistências inferiores aqueles curados pelo processo de autoclave. Aos 60 dias de cura suas resistências ficaram na faixa dos valores de Corpos-de-Provas curados pela autoclave nas temperaturas de 149 a 188°C, excessão feita na mistura utilizando areia, onde em todos os períodos de cura estudados,os valores de resistência dos Corpos-de-Prova curados pelo câmara à temperatura constante foram inferiores. A proporção da quantidade de cal e cinza na mistura, bem como o valor da superfície específica da cinza influenciam nos resultados de ensaios, independentemente da variação dos fatores principais. Em termos de análise estatística verificou-se que a energia de moldagem e o tempo de cura são os fatores que apresentam os maiores efeitos sobre os resultados da resistência, para os processos de cura ATC e CTC, respectivamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação se construiu sobre o pressuposto de que forma, técnica e poesia são premissas que embasam uma determinada visão de dança enquanto manifestação artística do corpo humano em movimento. Norteia também este estudo a perspectiva de que as relações que se estabelecem no momento de execução de uma dança instauram processos de significação. Desse modo, este trabalho teve como principais objetivos: - entender a dança enquanto uma atividade artística que se constrói no(s) corpo(s) em movimento; - refletir sobre a elaboração de possíveis significados quando da criação e execução de uma dança; - descrever a dança como uma ação criadora que se faz no corpo humano em movimento. Para atingir os objetivos propostos utilizou-se a fenomenologia como método de investigação, optando-se, assim, por realizar uma descrição da dança que já é, ao mesmo tempo, uma maneira de compreendê-la. Como conseqüência deste procedimento buscou-se demontrar que: - a dança dever ser entendida enquanto arte porque ela resulta de um processo de transformação de uma matéria-prima - o movimento humano - através do uso de procedimentos técnicos e formativos, que resultam em obras coreográficas que se dão a reconhecer através de seu intrínseco caráter de forma; - o movimento é o que toma visível os possíveis sentidos/significados de uma dança: a realização de sentidos coreográficos se dá no contexto de uma coreografia e só se efetua plenamente quando os sentidos são retomados e revividos pelos espectadores; - os processos de criação coreográfica baseados em ações formativas proporcionam o desenvolvimento de uma disponibilidade corporal para a dança. Tal disponibilidade corporal está alicerçada, principalmente, numa inteligência e numa memória corporais, que dispõem o dançarino a exercer suas potencialidades criadoras através da dança. A concepção da dança como forma, técnica e poesia do movimento aponta para uma possibilidade de recuperação, através da dança, de saberes relativos ao corpo, ao movimento e à sensibilidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação aborda o controle e garantia da qualidade no processo de manufatura de óleo de arroz, através do monitoramento estatístico de variáveis de processo e produto, com vistas a atingir padrões de excelência no processo produtivo e na satisfação dos clientes. O Controle Estatístico de Processos (CEP) fornece uma descrição detalhada do comportamento do processo, identificando sua variabilidade e possibilitando controlar esta ao longo do tempo. O CEP utiliza cartas de controle de processo, auxiliando na identificação de causas comuns e especiais de variação. A dissertação apresenta uma revisão detalhada da literatura abordando dois temas principais: (i) controle dos processos de manufatura do óleo de arroz (ii) implantação do controle estatístico de processos. Após priorização das características de qualidade a serem monitoradas no processo e treinamento do pessoal, apresenta-se a implantação efetiva do controle estatístico no processo de manufatura de óleo de arroz, através das seguintes etapas: (i) Definição do projeto, (ii) Planejamento da implantação, (iii) Treinamento em controle estatístico de processos, (iv) Implantação efetiva e (v) Acompanhamento e consolidação. Através dos dados coletados ao longo da implantação, são apresentadas conclusões, comparando a estabilidade e capacidade dos processos das diversas características de qualidade monitoradas, antes e depois da implantação do controle estatístico de processos. Assim, verificou-se com a implantação do CEP nos postos 1 (preparação) e 2 (extração) foram obtidas melhorias e no posto 3 (refinaria) devido a falta de automatização dos processos, estes foram menos beneficiados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Através da utilização de sistemas de controle informatizados, indústrias buscam uma caracterização mais completa de seus processos, gerando, freqüentemente, um grande volume de dados acerca de inúmeras variáveis de desempenho dos processos. Entretanto essa grande massa de dados é subaproveitada, visto que as cartas de controle multivariadas tradicionais, tais como as cartas de Hotelling, MCUSUM e MEWMA não são suficientemente robustas para tratar com um grande número de variáveis correlacionadas, pois foram concebidas para monitorar um número reduzido de variáveis de qualidade do produto final. Diante disso, ferramentas multivariadas mais robustas, que incorporam essas informações, vêm sendo desenvolvidas; dentre estas, destaca-se a Multiway Principal Component Analysis (Análise de Componentes Principais Multidirecionais; ACPM). Neste trabalho, apresenta-se a base teórica para a elaboração de uma carta de controle a partir da estratégia ACPM, para monitoramento on-line de processos em bateladas. Nesses processos, aferições freqüentes de variáveis de processo são disponibilizadas durante a realização de cada batelada. As cartas de controle baseadas em ACPM permitem o tratamento de variáveis autocorrelacionadas, com médias que descrevem trajetórias não lineares se observadas em momentos seqüenciados no tempo. Tais variáveis aparecem com freqüência em processos por bateladas. Uma aplicação das cartas de controle baseadas em ACPM em um sub-processo de produção de borracha para cobertura de pneus ilustra a utilização da ferramenta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cartas de controle estatístico têm sido amplamente utilizadas no monitoramento do desempenho de processos. Com a crescente informatização dos processos industriais, tem-se verificado um aumento sensível na quantidade de informações disponíveis sobre variáveis de processo. Via de regra, essas variáveis apresentam-se fortemente correlacionadas. Em casos especiais, como nos processos em batelada, tais variáveis descrevem um perfil de variação ao longo do tempo, caracterizando o comportamento normal do processo. Nessas condições especiais, as cartas de controle tradicionais não proporcionam um monitoramento eficaz sobre o processo. Esta dissertação de mestrado apresenta uma alternativa para o monitoramento on line de processos em bateladas: a proposição de uma metodologia para implantação de cartas de controle multivariadas baseadas em componentes principais. A idéia central dessas cartas é monitorar simultaneamente diversas variáveis, controlando somente algumas poucas combinações lineares independentes delas; tais combinações são denominadas componentes principais. O presente trabalho ilustra a metodologia proposta em um estudo de caso realizado na etapa de fermentação do processo de fabricação de cerveja de uma indústria de bebidas, localizada na região metropolitana de Porto Alegre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dentre as principais áreas que constituem a Ciência da Computação, uma das que mais influenciam o mundo atual é a Engenharia de Software, envolvida nos aspectos tecnológicos e gerenciais do processo de desenvolvimento de software. Software tornou-se a base de sustentação de inúmeras organizações dos mais diversos ramos de atuação espalhados pelo planeta, consistindo de um elemento estratégico na diferenciação de produtos e serviços atuais. Atualmente, o software está embutido em sistemas relacionados a infindável lista de diferentes ciências e tecnologias. A Tecnologia de Processo de Software surgiu em meados da década de 1980 e representou um importante passo em direção à melhoria da qualidade de software através de mecanismos que proporcionam o gerenciamento automatizado do desenvolvimento de software. Diversas teorias, conceitos, formalismos, metodologias e ferramentas surgiram nesse contexto, enfatizando a descrição formal do modelo de processo de software, para que possa ser automatizado por um ambiente integrado de desenvolvimento de software. Os modelos de processos de software descrevem o conhecimento de uma organização e, portanto, modelos que descrevem experiências bem sucedidas devem ser continuamente disseminados para reutilização em diferentes projetos. Apesar da importância desse tópico, atualmente apenas uma pequena porção do conhecimento produzido durante o desenvolvimento de software é mantido para ser reutilizado em novos projetos. Embora, à primeira vista, o desafio de descrever modelos reutilizáveis para processos de software pareça ser equivalente ao problema tratado pela tradicional área de reutilização de produtos software, isso é apenas parcialmente verdade, visto que os processos envolvem elementos relacionados com aspectos sociais, organizacionais, tecnológicos e ambientais. A crescente complexidade da atual modelagem de processos vem influenciando a investigação de tecnologias de reutilização que sejam viáveis nesse campo específico. A investigação conduzida nesse trabalho culminou na especificação de um meta-modelo que tem como objetivo principal aumentar o nível de automação fornecido na reutilização de processos, apoiando a modelagem de processos abstratos que possam ser reutilizados em diferentes contextos. O meta-modelo proposto por esse trabalho - denominado APSEE-Reuse - fornece uma série de construtores sintáticos que permitem que os diferentes aspectos desse contexto sejam descritos segundo múltiplas perspectivas, complementares entre si, contribuindo para diminuir a complexidade do modelo geral. A solução proposta destaca-se por fornecer um formalismo para modelagem de processos, o qual é integrado à uma infraestrutura de automação de processos de software, permitindo que a reutilização esteja intimamente relacionada com as outras etapas do ciclo de vida de processos. Os diferentes componentes envolvidos na definição do modelo APSEE-Reuse proposto foram especificados algebricamente, constituindo uma base semântica de alto 15 nível de abstração que deu origem a um conjunto de protótipos implementados no ambiente PROSOFT-Java. O texto ainda discute os experimentos realizados com o meta-modelo proposto na especificação de diferentes estudos de casos desenvolvidos a partir de exemplos retirados na literatura especializada, e de processos que fornecem soluções em contextos e necessidades específicas de projetos desenvolvidos no PPGC-UFRGS. Finalmente, são apresentadas considerações acerca dos trabalhos relacionados, os elementos críticos que influenciam a aplicabilidade do modelo e as atividades adicionais vislumbradas a partir do trabalho proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Internet pelos mecanismos de informação, comunicação e cooperação que proporciona, vem se afirmando ao longo dos últimos anos, como uma interessante opção à viabilização da educação a distância e a aprendizagem virtual, através do uso de Ambientes de Gerenciamento de Cursos a Distância, que procuram oferecer um amplo e consistente conjunto de ferramentas de suporte à comunicação, às atividades de alunos e de professores, à avaliação e monitoração dessas atividades, bem como à coordenação e à administração do sistema [KIS 2002]. Procurando identificar as características, propriedades e atributos mais relevantes e usualmente oferecidos por ambientes, foram estudados os ambientes: WebCT, TopClass e Learning Space, como referências de ambientes comerciais e AulaNet, TelEduc e EAD UNISC, como exemplos de ambientes acadêmicos. Como resultado desse estudo, foi elaborada uma estrutura hierárquica de três níveis: áreas, funcionalidades e características, onde o primeiro nível, representa as principais áreas de abrangência de um ambiente, o segundo, as funcionalidades consideradas em cada área e, o terceiro, as características que definem cada uma das funcionalidades. A partir dessa estruturação em níveis, foi elaborada e proposta uma metodologia de avaliação para permitir a verificação quantitativa e qualitativa das funcionalidades e características apresentadas por Ambientes de Gerenciamento de Cursos a Distância. Como principais características desta metodologia, podem ser destacadas: a estrutura hierárquica em níveis, a atribuição de pesos aos diferentes níveis de acordo com o grau de importância, a possibilidade de inclusão de ambientes pelos próprios fabricantes ou responsáveis, a disponibilização de um perfil default de avaliação, a apresentação do ranking de ambientes segundo um perfil de avaliação, a comparação de ambientes quanto as suas características e funcionalidades e a possibilidade de alteração ou criação de novos perfis de avaliação, segundo as diferentes necessidades de cada usuário. Para validar essa metodologia, foi desenvolvido e disponibilizado na Web para consulta geral, um sistema de Benchmark, que além de pontuar os sistemas cadastrados segundo o perfil criado nesse trabalho, possibilita a definição de novos perfis para avaliação, assim como consultas e comparações quanto às funcionalidades e às características apresentadas pelos ambientes, auxiliando a diminuir o nível de subjetividade dos usuários, nos processos relacionados à escolha do ambiente mais adequado as suas necessidades.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O processo de desenvolvimento de software implica na necessidade constante de tomadas de decisão. A cada etapa do processo, torna-se necessário estabelecer a comunicação e interação entre usuários, gerentes, analistas, programadores e mantenedores numa constante troca de informações. O registro dos artefatos produzidos durante todo o processo é uma questão que norteia as pesquisas em ambiente de desenvolvimento de software. Quando se fala em suporte ao processo de colaboração entre os elementos de uma equipe de desenvolvimento, este registro torna-se ainda mais necessário. Neste contexto, a modelagem dos dados a serem armazenados se amplia para comportar outras informações provenientes da interação do grupo além dos artefatos gerados. As informações trocadas durante este processo interativo que incluem fatos, hipóteses, restrições, decisões e suas razões, o significado de conceitos e, os documentos formais formam o que é denominado pela literatura especializada como memória de grupo. A proposta da arquitetura SaDg PROSOFT visa fornecer suporte a memória de grupo, no que diz respeito ao registro das justificativas de projeto(Design Rationale), através de uma integração com o gerenciador de processos (GP) provido pelo ADS PROSOFT. Esta integração se dá através das ferramentas inseridas no modelo, assim desenhadas: Editor de Norma, Editor de Argumentação, Extrator de Alternativas, Editor de Votação. O ADS PROSOFT integra ferramentas para desenvolvimento de software. Este ADS foi escolhido para o desenvolvimento do modelo SADG, pois baseia-se na construção formal de software, mas particularmente no método algébrico, por ser um ambiente estendível, possibilitando a inclusão do modelo SaDg PROSOFT ao seu conjunto de ferramentas, por ter características de um ambiente distribuído e cooperativo e por não dispor de nenhum suporte à discussões e decisões em grupos. São apresentados os fundamentos de modelos SADG e algumas ferramentas. Alguns dos principais requisitos desses ambientes foram coletados e são apresentados a fim de embasar a proposta do trabalho. O modelo SADG é apresentado na forma de ferramentas PROSOFT(chamadas ATOs) e permite a definição de atividades como: Atividade de argumentação, atividade de extração e a atividade de votação. Além disso, permite a coordenação destas atividades através de um facilitador e do próprio GP, e também, possui um mecanismo para a configuração do processo decisório.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho utilizou-se a técnica de HS-SPME/GC/ITMS para o estudo qualitativo dos compostos voláteis (VOC) emitidos pelas folhas de três espécies de Eucalyptus (E.): E. citriodora, E. dunnii e E. saligna tanto em laboratório como in situ, além do estudo da relação entre folhas de eucalipto e rãs Litoria ewingi. Para este fim, foram desenvolvidos métodos análiticos. Os compostos tentativamente como (E,E)-a-farseno, (E)-4,8-dimetil-1,3,7-nonatrieno (DMNT),(E,E)-4,8,12-trimetil-1,3,7,11-tridecatetraeno (TMTT),B-cariofileno,a-cariofileno, gerrmacreno D e (E,E,E)-3,7,11,15-tetrametil-1,3,6,10,14-hexadecapentaeno (TMHP) foram encontrados no headspace de folhas picadas de eucalipto, sendo que os três primeiros também foram nas emissões áreas de E. saligna in situ, não tendo sido encontrados nos óleos voláteis das mesmas árvores, obtidos por hidrodestilação. Nas amostragens in situ, foram observados dois tipos de perfis circadianos nas emissões voláteis, incluindo compostos como cis-, trans-óxido de rosa, trans-B-ocimeno, citronelal, citronelol, entre outros. O comportamento dos compostos citados sugere que os mesmos sejam semioquímicos. Os resultados obtidos com HS-SPME (PDMS/DVB) mostraram que esta é uma ferramenta analítica relativamente simples, que preserva a vida devido ao seu caráter não invasivo, de mínima pertubação do sistema vivo sob amostragem e que, devido a sua rapidez (1 min), permite o acompanhamento de alteraçãoes rápidas provocadas por processos endógenos e/ou exógenos nos seres vivos. O monitoramento da emissão de voláteis de folhas in situ durante 8 a 10 h por vários dias consecutivos, e a extração dos voláteis de rãs vivas sob estresse, submetidas a diferentes condições de dieta e meio ambiente, exemplificam o potencial desta técnica, que abre novos horizontes na investigação de voláteis de seres vivos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diversas e velozes mudanças vêm ocorrendo nos últimos anos, e o aumento da competitividade é uma realidade presente no mundo empresarial. O gerente está no seio destes acontecimentos, desempenhando papel muito importante nos processos de inovação e mudança organizacional. Neste cenário, um novo conceito de competências gerenciais passa a ser valorizado. O conceito de competência, inicialmente associado à linguagem jurídica, vem sendo utilizado no mundo organizacional representando um conceito dinâmico, concretizado no desempenho; competência é saber, saber fazer e saber agir. A gestão de competências surge como um tema desafiador, dentro do subsistema de desenvolvimento humano da área de Recursos Humanos. Como um assunto novo e pouco estudado em nosso país, este trabalho apresenta resultados de uma pesquisa realizada em três empresas do Rio Grande do Sul, sobre as noções e processos de desenvolvimento utilizados na gestão de competências gerenciais. A metodologia utilizada foi de natureza qualitativa, através de estudo exploratório-descritivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A escritora objeto desta tese, figura proeminente da literatura neozelandesa, voltou-se ao gênero autobiográfico após um longo percurso na área da ficção, para definir-se como uma primeira pessoa, depois de sua vida particular ter sido insistentemente confundida com sua obra por parte da crítica. Uma questão que logo vem à tona é que praticamente toda ficção resulta ser, até um certo grau, fundamentalmente autobiográfica e que a análise crítica da obra de um escritor possibilita o conhecimento de sua vida. Nosso argumento, opondo-se a esse pressuposto, parte da vida para melhor compreender a obra, evidenciando que Janet Frame manteve um grande distanciamento entre os eventos reais e sua ficcionalização, realizando uma tarefa que a coloca lado a lado dos nomes mais ilustres da literatura ocidental do século XX. Numa atitude comparatista, procuramos extrair os diversos processos de transmutação estética realizados pela escritora, buscando sanar algumas distorções que impediram uma análise mais confiável de sua obra, problematizando, entre outros aspectos, a questão do gênero autobiográfico, da mímese e do realismo ficcional. A manipulação artística da vida particular de Janet Frame foi resgatada por um conjunto de processos, entre os quais a antimímese, a poetização do quotidiano, a intertextualidade e a interdiscursividade, que revelam um alcance estético e uma auto-referencialidade deslocada muito além do mero biografismo. Outros aspectos analisados na obra como um todo indicam que novas abordagens da ficção de Janet Frame, a partir de enfoques pós-modernos, pós-coloniais, pós-estruturalistas e feministas podem superar as posturas reducionistas das quais ela foi alvo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese trata de filmes finos de materiais dielétricos depositados por sputtering reativo e crescidos termicamente que são analisados por métodos de feixes de íons. Como introdução aos nossos trabalhos, são abordados os princípios da deposição por sputtering com corrente contínua, com rádio-freqüências e em atmosferas reativas. Além disso, são apresentados os princípios de crescimento térmico em fornos clássicos e em fornos de tratamento térmico rápido. Também são descritos em detalhe os métodos análiticos de espectropia de retroespalhamento Rutheford e reações nucleares ressonantes e não-ressonantes para medir as quantidades totais e os perfis de concentração em função da profundidade dos vários isótopos utilizados, bem como o método de difração de raios-X. No que concerne à deposição por sputtering reativo de filmes finos de nitreto de silicio, nitreto de alumínio e nitreto duplo de titânio e alumínio, são estudados os processos de deposição, são caracterizados os filmes desses materiais e são estabelecidas correlações entre características dos filmes e os parâmetros de deposição. Quanto ao crescimento térmico em atmosferas reativas de filmes muito finos de óxido, nitreto e oxinitreto de sílicio, são apresentados modelos para o crescimento dos filmes de óxido de sílicio, é estudada a influência da limpeza do substrato de sílicio nos mecanismos de crescimento dos filmes de óxido de sílicio e são elucidados aspectos dos mecanismos de nitretação térmica do sílicio e de filmes de óxido de sílicio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sob a influência de instrumentos analíticos pós-estrututalistas, especificamente de abordagens associadas a Michel Foucault, bem como de dimensões dos Estudos Culturais e da etnografia, o trabalho aborda a caracterização da população presente nas escolas municipais de POA face às Políticas de Inclusão adotadas, agrupada prioritariamente nas Turmas de Progressão – agrupamento provisório de estudantes aos quais se atribuem defasagens entre a idade cronológica e o nível de conhecimentos – adotadas no Projeto Escola Cidadã: Ciclos de Formação. Os integrantes dessas turmas eram, na situação estudada, crianças e jovens pobres, multirepetentes, alguns com déficts orgânicos e ou psicológicos, muitos com carências materiais e afetivas graves, na maioria das vezes negros, sendo muitos deles oriundos de Classes Especiais. Havia também entre eles/as internos/as da antiga FEBEM, meninos/as de rua e na rua – em suma eram sujeitos que poderiam incluir-se na categoria dos “anormais” discutida por Foucault (1997) e/ou dos “estranhos” tal como foi nomeada por Bauman (1998). Analisam-se, também, na tese instrumentos usados nas práticas pedagógicas - as fichas da secretaria, os relatórios de avaliação, os dossiês – que atuam na constituição e disciplinamento desses sujeitos/alunos e também de suas professoras. A percepção de que é preciso dar aula para quem não sabe ainda ser aluno e aluna e da negação do papel produtivo da pedagogia neste processo de constituição, sujeição e disciplinamento emerge das discussões conduzidas a partir de constatações feitas relativamente aos grupos estudados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação propõe um modelo conceitual para a estabilização de processos de manufatura através da utilização integrada de ferramentas de engenharia de qualidade. A metodologia consiste de uma série de etapas cronológicas bem definidas, que permitem identificar e controlar parâmetros de processo mais significativos ligados à construção das características de qualidade consideradas mais importantes pelos clientes. Ao longo do texto, faz-se uma revisão da literatura existente sobre o assunto, apresentam as etapas do modelo conceitual proposto e as ferramentas de engenharia de qualidade eficientes no cumprimento destas etapas. Logo após, a aplicação do modelo conceitual proposto de estabilização de processos proposta é ilustrada através de um estudo de caso no setor de pintura automotiva.