80 resultados para Força e flexibilidade


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de conclusão aborda a utilização das Bolas Suíças como recurso principal para realizar um Programa de Cinesioterapia Laboral (PCL), com um grupo de trabalhadores da biblioteca de uma Universidade, a qual passou por um processo de intervenção ergonômica. O principal objetivo é melhorar a flexibilidade e a mobilidade articular do grupo em questão, estimulando o exercício físico, através do uso da bola e melhorar o relacionamento interpessoal. Realizou-se inicialmente um questionário para conhecer o grupo, na qual incluía questões com relação ao trabalho e colegas, e suas satisfações em relação aos mesmos, palestras explicativas sobre a bola e assuntos pertinentes à saúde do trabalhador e qualidade de vida, e também foram efetuados testes de avaliações, através de mensurações, para registrar as medidas de mobilidade articular encontradas antes e após o término do trabalho. Foram também realizados registros fotográficos e filmagens dos grupos em suas atividades laborais e das atividades de cinesioterapia laboral, na qual elaborou-se exercícios de alongamento, fortalecimento, equilíbrio e coordenação auxiliados por atividades lúdicas. Após as atividades por um período de três meses com freqüência de três vezes semanais, fez-se novas mensurações, detectando assim as evoluções que se obteve com o trabalho. Os principais resultados confirmaram os objetivos propostos, determinando melhorias importantes na mobilidade articular, aumento da motivação à atividade física com o uso da Bola Suíça, sem permitir o aparecimento de dores durante o exercício. Outro item foi relacionado ao relacionamento interpessoal, gerandoassim uma melhor qualidade de vida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A competitividade na área da saúde tem obrigado as empresas a conhecer e entender as necessidades dos seus clientes. Com isto, os hospitais têm buscado um modelo de gestão que traduza as práticas que agregam valor ao cliente. Este trabalho aborda a percepção dos familiares de pacientes com alta da Unidade de Tratamento Intensivo Pediátrico (UTIP) acerca do grau de importância e satisfação de assistência prestada pela equipe da UTIP do Hospital da Criança Santo Antônio (HCSA). Inicialmente, no referncial teórico foi realizada a análise dos conceitos de serviço, de qualidade em serviços, de serviços hospitalares, qualidade e de satisfação do cliente em UTIP. Na pesquisa foi aplicado um questionário descritivo de perfil quantitativo e qualitativo. Na análise dos dados, utilizou-se a matriz importância versus satisfação para determinar os atributos a serem priorizados. Obteve-se a indicação de esforços de melhoria nos seguintes atributos: cumprimento de horários das informações médicas, número de técnicos e auxiliares de enfermagem, rapidez no atendimento médico, atendimento ao acompanhante, limpeza dos ambientes e flexibilidade do atendimento - técnicos e auxiliares de enfermagem. Com base nos resultados obtidos na pesquisa, a autora propõe ações de melhoria para a instituição na visão dos familiares com alta da UTIP do HCSA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de versões tem sido essencial em diversas aplicações de banco dados, por permitir o armazenamento e a manipulação de diferentes estados da base de dados. Durante a evolução de um esquema, o versionamento preserva todas as versões de esquemas e de seus dados associados. Por outro lado, os conceitos de bancos de dados bitemporais, que incorporam tanto tempo de transação quanto tempo de validade, provêm flexibilidade ao mecanismo de evolução de esquemas, não somente por permitir acesso a informações presentes, passadas e futuras, mas também por permitir atualizações e consultas entre as diversas versões de esquemas existentes. O objetivo principal desta tese é definir um modelo que utilize os conceitos de tempo e de versão para permitir o gerenciamento da evolução dinâmica de esquemas em bancos de dados orientados a objetos. O resultado, o Modelo Temporal de Versionamento com suporte à Evolução de Esquemas (TVSE - Temporal and Versioning Model to Schema Evolution), é capaz de gerenciar o processo de evolução de esquemas em todos os seus aspectos: versionamento e modificação de esquemas, propagação de mudanças e manipulação de dados. Esse modelo difere de outros modelos de evolução de esquemas por permitir o gerenciamento homogêneo e simultâneo do histórico da evolução do banco de dados intencional e extensional. Com o objetivo de complementar a definição deste modelo é apresentado um ambiente para gerenciar o versionamento temporal da evolução de esquemas. Desse ambiente foi implementado um protótipo da ferramenta de apoio ao gerenciamento de evolução de esquemas. Por fim, enriquecendo o universo da tese e com o intuito de prover uma maior fundamentação teórica e matemática para descrever as políticas de evolução de esquemas, é especificada uma semântica operacional para um subconjunto do modelo proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo aqui apresentado aborda um assunto que tem emergido em importância na última década: a valoração de empresas, em razão da ampliação das relações globais entre os países e entre suas próprias organizações, na busca por novos mercados, que conjugados a uma política de redução do tamanho do estado, através da implementação de programas de privatização, de fusão, de aquisição e de incorporação forçaram o surgimento de novos estudos nesse campo do conhecimento, para tornar possível a operacionalização dessas ações. A proeminência do estudo, no entanto, centra-se na revisão teórica e na aplicação em um caso prático de modelos tradicionais de análise e avaliação, como os modelos de fluxo de caixa descontado (DCF), comparando-os com os resultados obtidos através da aplicação de modelos mais complexos que consigam melhor captar o valor da flexibilidade inerentes à avaliação, em empresas de mercados emergentes e em projetos de longa maturação, onde a incerteza constitui-se em variável importante no processo de avaliação, como é o caso dos modelos baseados em árvores de decisão ou de opções reais. A empresa escolhida foi a Aracruz Celulose S/A, que, por suas características, enquadrou-se dentro dos objetivos propostos por este estudo. O desenrolar do trabalho conduzirá à conclusão de que os valores empresariais encontrados não podem ser tidos como determinísticos ou incontestáveis, uma vez que os processos avaliativos por mais complexa que seja sua estruturação são baseados em estimativas, fazendo com que seus resultados delas sejam decorrentes. Assim, os ruídos existentes nos processos de avaliação de maneira geral estão em maior grau relacionados com às próprias perspectivas de desempenho futuro da empresa avaliada do que efetivamente à qualidade do modelo que se está utilizando.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas Gerenciadores de Workflow (SGWf) têm atraído muita atenção nos últimos anos, por serem baseados em um modelo simples que permite definir, executar e monitorar a execução de processos. Mas este esquema é um tanto quanto rígido e inflexível, apresentando alguns problemas quando da necessidade de sua utilização no controle de processos com características cooperativas, em que o comportamento humano deve ser levado em conta. Este tipo de processo deve apresentar uma certa flexibilidade de forma a possibilitar a troca de resultados entre tarefas, acabando com a dependência fim-início existente entre tarefas seqüenciais nos SGWfs tradicionais. A fim de possibilitar este tipo de comportamento, surge a antecipação de tarefas, que tem por objetivo oferecer meios de flexibilizar o fluxo de controle e o fluxo de dados para permitir que tarefas possam ser disparadas antes mesmo da conclusão de suas antecessoras. A antecipação implica no aumento da cooperação entre tarefas e em melhor desempenho com relação ao tempo de execução dos processos. O aumento na cooperação está relacionado diretamente à troca de resultados, permitindo que duas ou mais tarefas trabalhem sobre instâncias de um determinado dado que ainda está sendo produzido. O melhor desempenho deve-se ao paralelismo (parcial) criado entre tarefas que deveriam executar de maneira estritamente seqüencial, devido ao disparo das tarefas antes do previsto. Este trabalho então, apresenta um estudo das abordagens de flexibilização de SGWfs, visando encontrar maneiras de prover antecipação de tarefas. O principal objetivo do trabalho é verificar a melhoria de desempenho em termos de tempo de execução dos processos que se pode obter utilizando a antecipação de tarefas Para tal, foi desenvolvido um simulador que suporta a antecipação de tarefas e foram conduzidas simulações, que mostraram os ganhos e alguns padrões de comportamento da utilização da antecipação de tarefas. Para possibilitar o uso da antecipação em processos reais foram realizadas alterações na ferramenta de definição de processos Amaya Workflow e na máquina de workflow do projeto CEMT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de conceitos de representação temporal tem sido essencial em diversas aplicações de banco de dados, por permitir o armazenamento e a manipulação dos diferentes estados assumidos pela base de dados ao longo do tempo. Durante a evolução da base de dados, através do conceito de bitemporalidade, obtém-se acesso a informações presentes, passadas e futuras. Já o conceito de versionamento permite a existência de diversas alternativas para a evolução da base de dados, possibilitando um processo de evolução ramificada, em oposição ao usual mecanismo de evolução linear do conteúdo da base. Com a migração de tais aplicações para um ambiente Web, estas passam cada vez mais a utilizar a linguagem XML como formato de representação e intercâmbio de seus dados. Tornam-se necessários, dessa forma, mecanismos para a representação e manipulação da história do conteúdo de um documento XML que sofre modificações com o passar do tempo. Apesar da existência de propostas de extensão temporal de modelos de dados convencionais e de estratégias para o armazenamento de documentos XML em modelos convencionais, a natureza semi-estruturada dos documentos XML faz com que seja necessário definir um novo modelo de dados temporal, capaz de lidar com os conceitos de bitemporalidade e versionamento em um documento semiestruturado. O objetivo deste trabalho é definir um modelo que, ao contrário das demais propostas existentes, combine os conceitos de bitemporalidade e de versionamento em uma única abordagem capaz de permitir o tratamento da evolução do conteúdo de documentos XML. O uso conjunto desses dois recursos visa combinar o poder de expressão de cada um, garantindo uma maior flexibilidade na representação do histórico dos documentos XML. O modelo resultante recebeu o nome de Tempo e Versões em XML, ou simplesmente TVX, composto por três partes: um modelo para a organização lógica dos dados, uma linguagem de consulta e uma linguagem para promover alterações ao conteúdo dos documentos XML.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em sistemas produtivos onde a diversificação da produção é vista como estratégia competitiva, a customização torna-se uma ferramenta importante, pois possibilita a produção de itens diferenciados a custos similares aos de produtos padronizados. No entanto, sua implementação requer certa flexibilidade no processo produtivo, sendo esta adquirida através da adoção de linhas de montagem capazes de alternar diferentes modelos de um mesmo produto, denominadas como linhas de montagem multi-modelos. Neste tipo de sistema produtivo, a distribuição das tarefas de montagem entre as estações de trabalho tende a ser mais complexa, devido às características de cada modelo produzido pela linha. Dessa forma, o estudo do problema de balanceamento de linhas de montagem multi-modelos é necessário ao desejar-se obter uma melhor distribuição da carga de trabalho entre as estações e, conseqüentemente, um aumento de produtividade. Esta dissertação propõe uma sistemática para realização de balanceamento em linha de montagem multi-modelos. Para tanto, são classificados quanto às suas características e aplicabilidade procedimentos de balanceamento de linhas multi-modelos desenvolvidos por diversos autores. Um desses procedimentos, inserido na sistemática proposta, tem sua aplicação ilustrada através de um estudo de caso em uma indústria de manufatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como objetivo geral identificar no conjunto de medidas e testes do Projeto Esporte Brasil (PROESP-BR) indicadores de desempenho esportivo que permitam desenvolver parâmetros e metodologias para a detecção de possíveis talentos esportivos para o handebol, para o voleibol e para o basquetebol. A amostra é composta de 313 jovens indivíduos, estratificados conforme o nível de rendimento esportivo (atletas ou escolares), modalidade esportiva e sexo. O procedimento estatístico utilizado foi a Análise da Função Discriminante. Na comparação entre atletas e escolares, foram encontradas diferenças estatisticamente significativas em todos os indicadores, com exceção da variável flexibilidade nas comparações: entre basquetebolistas e escolares do sexo masculino, e handebolistas e escolares do sexo masculino. Os indicadores de seleção estabeleceram-se da seguinte maneira: no Basquete Masculino, destacaram-se como indicadores de seleção, as variáveis: força explosiva de membros superiores, massa corporal, envergadura, estatura, força explosiva de membros inferiores, velocidade e agilidade; no Basquete Feminino: força explosiva de membros superiores, força explosiva de membros inferiores, velocidade, agilidade, envergadura, estatura e força-resistência abdominal; no Handebol Masculino: força explosiva de membros superiores, velocidade, força explosiva de membros inferiores, agilidade, massa corporal, estatura e envergadura; no Handebol Feminino: força explosiva de membros inferiores, velocidade, agilidade, força explosiva de membros superiores e envergadura; no Voleibol Masculino: força explosiva de membros superiores, força explosiva de membros inferiores, massa corporal, envergadura, estatura, velocidade e agilidade; e no Voleibol Feminino: força explosiva de membros inferiores, agilidade, envergadura, estatura, força explosiva de membros superiores, velocidade, força-resistência abdominal e massa corporal. O conjunto de indicadores do PROESP-BR apresentou um grande poder discriminatório entre jovens escolares e jovens atletas, classificando os casos com grande precisão e com altos percentuais de acerto. Foram encontrados 3 jovens escolares com perfil de atletas de handebol (1 do sexo masculino e 2 dos sexo feminino).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As organizações têm investido recursos significativos no desenvolvimento de cursos baseados em ambientes virtuais de aprendizagem na Internet. Esta modalidade de educação a distância apresenta vantagens significativas, derivadas principalmente da grande flexibilidade de tempo, local e recursos que a caracteriza. É preciso considerar, entretanto, que a esperança de uma utilização ampla dos cursos na Internet depende de diversos fatores que influenciam a efetividade destes cursos, como o modelo de aprendizagem, a tecnologia, o conteúdo, os professores e o nível de interação. Mas a preocupação desta pesquisa está no comportamento do estudante e no seu impacto. Mais particularmente, ela tem por objetivo identificar a influência das diferenças individuais dos estudantes em relação às preferências por contato social e à auto-regulação dos recursos da aprendizagem na efetividade dos cursos desenvolvidos em ambientes virtuais de aprendizagem na Internet. Para isso, realizou-se um estudo de caso no Curso de Capacitação de Técnicos dos Núcleos de Tecnologia Educacional (NTE) das escolas da Região Sul do Brasil. Foram utilizadas seis fontes de coleta de dados: levantamento estruturado (Pesquisa Survey), observação direta, análise de registros e documentos, entrevistas abertas e entrevistas semi-estruturadas. A Pesquisa Survey foi, contudo, o meio de coleta de dados mais relevante. Para realizá-la, adaptou-se e validou-se ao contexto da pesquisa algumas escalas ligadas à auto-regulação dos recursos de aprendizagem (gestão do tempo, do ambiente, do esforço, do ambiente social e prorrogação da gratificação acadêmica) e às preferências por contato social (motivação ao contato social e preferência por solitude). No processo de validação, realizou-se um estudo piloto aplicando o questionário preliminar em 292 estudantes de graduação de universidades de Porto Alegre (em cursos presenciais). Na coleta definitiva dos dados no Curso de Capacitação de Técnicos do NTE, foram realizadas 28 entrevistas semi-estruturadas e aplicou-se o questionário com 104 estudantes do curso. A análise dos dados permitiu verificar a influência dos fatores anteriormente citados de auto-regulação e contato social na percepção (1) dos resultados, (2) da qualidade e (3) da satisfação com o curso, (4) na percepção de efetividade dos cursos na Internet em comparação com os cursos presenciais e (5) na percepção das vantagens e desvantagens dos cursos na Internet. Os resultados mostram que os estudantes que conseguiram auto-regular melhor o ambiente social, o tempo, o esforço e o ambiente de estudo, além de apresentarem uma maior necessidade de apoio emocional, perceberam uma maior efetividade e qualidade no Curso de Capacitação de Técnicos do NTE, além de ficarem mais satisfeitos Também se verificou que os estudantes que acreditam que em muitos aspectos os cursos na Internet podem ser mais efetivos do que os cursos presenciais, apresentam igualmente uma maior auto-regulação do tempo, do esforço, do ambiente social, além de uma maior tendência de prorrogação da gratificação acadêmica, uma necessidade relativamente grande de atenção e intermediária de estímulo positivo. Os resultados encontrados mostraram ainda que os estudantes que identificaram mais vantagens nos cursos via Internet foram também mais capazes na gestão do ambiente social, do tempo, do esforço, além de apresentarem uma maior tendência à prorrogação da gratificação acadêmica e uma relativamente alta necessidade de apoio emocional e estímulo positivo. Por fim, se identificou grupos de estudantes com perfis similares de preferência por contato social e de auto-regulação dos recursos de aprendizagem e a influência destes perfis na efetividade dos cursos desenvolvidos na Internet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objeto de estudo deste trabalho é uma avaliação dos impactos econômicos e ambientais de um possível acordo comercial da Área de Livre Comércio da Américas (ALCA) concomitantemente com as reduções de emissões de CO2 tratadas pelo Protocolo de Quioto. Acordos globais de redução de CO2 podem distorcer os resultados que seriam obtidos pelos acordos comerciais, e os acordos comerciais tendem a gerar mais emissões de CO2. Os cenários são construídos para a simulação de eliminação dos gravames tarifários entre os membros da ALCA bem como de redução de emissão de CO2 para os signatários do Protocolo, admitindo ainda a possibilidade de execução de um dos mecanismos de flexibilidade do Protocolo de Quioto – o comércio de emissões. O instrumento utilizado para as simulações - GTAP-E - é uma versão modificada do GTAP (Global Trade Analysis Project) desenvolvido pela Universidade de Purdue. O GTAP-E (energia), foi projetado para analisar assuntos relacionados ao uso de energia e impactos de políticas de mudança climática. Ele difere do modelo GTAP padrão principalmente pela descrição mais detalhada das possibilidades de substituição de uso entre as diferentes fontes de energia. Esse modelo utiliza uma base de dados que, além dos dados usualmente utilizados pelo GTAP padrão, inclui elasticidades de substituição para o uso dos commodities energia e quantidades de emissões de CO2 gerados pela queima dos combustíveis fósseis (carvão, petróleo cru e gás natural), e também pelo uso de produtos derivados do petróleo e geração de eletricidade Os resultados obtidos corroboraram a hipótese que a política ambiental de redução de emissões, apesar de contribuir para a diminuição de CO2 na atmosfera, de forma geral, afeta negativamente o bem-estar econômico dos países que abatem emissões, principalmente através do encarecimento das commodities de energia e a conseqüente redução do seu uso. Esse efeito é mais pronunciado em países cuja matriz energética é mais intensiva em carvão e petróleo. Para o Brasil, os resultados mostraram que a melhor estratégia para participar do processo de redução de emissões seria a de o país estar inserido diretamente no mecanismo de comércio de emissões. Essa situação traria ganhos de bemestar econômico, avaliados pela variação equivalente da renda, superiores, em comparação às alternativas em que o mesmo não participa de tal mecanismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A correta utilização do espaço físico de uma fábrica é fator importante para o seu bom funcionamento, já que estabelece a sua organização fundamental, bem como os padrões de fluxo de materiais e informações, com efeitos que se farão presentes no longo prazo. A fim de sistematizar um adequado planejamento de layout, métodos para planejamento do macro-espaço, como o SLP (Systematic Layout Planning – Planejamento Sistemático de Layout), podem auxiliar no desenvolvimento de alternativas de layout. Contudo, devido à geração de soluções sub-ótimas com benefícios e desvantagens diferentes, o processo decisório da melhor alternativa de layout torna-se crítico para garantir a eficiência e flexibilidade de empresas frente aos diferentes cenários de mercado. O objetivo principal desta dissertação é a utilização de ferramentas de apoio à decisão multicritério em sistemáticas de planejamento de layout. A metodologia de análise multicritério proposta foi colocada em prática na seleção de alternativas de layout em uma empresa do ramo automotivo, que necessita ampliar seu parque fabril de modo a possibilitar a incorporação de novos equipamentos e otimização do fluxo de materiais. Nove alternativas de macro-layout diferentes foram geradas sendo avaliada a melhor alternativa geral em relação a sete critérios de avaliação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente tese trata do tema redes de cooperação interorganizacionais no contexto brasileiro. O estudo aborda uma política pública governamental desenvolvida no Sul do Brasil voltada a ampliar a competitividade das pequenas empresas e gerar desenvolvimento econômico e social através do incentivo a formação de redes de cooperação entre empresas. O objetivo principal da tese é identificar e compreender os principais fatores que afetam a gestão de redes de cooperação. A partir de uma pesquisa quantitativa realizada em uma amostra de 443 empresas participantes de 120 redes, os resultados evidenciaram os principais elementos de gestão. O Programa Redes de Cooperação, desenvolvido pelo Governo do Estado do Rio Grande do Sul, trata-se de uma política pública que, desde o ano 2000, objetiva o fortalecimento competitivo de pequenas empresas e o desenvolvimento socioeconômico regional. Esse programa sustenta-se em três pilares de atuação: a) uma metodologia de formação, consolidação e expansão de redes entre empresas; b) uma estrutura regionalizada de suporte à implementação formada por uma rede de universidades regionais e c) uma coordenação central por parte do Governo do Estado, responsável pelos instrumentos de promoção, orientação e apoio aos empresários e gestores das redes. Cabe destacar que o caso estudado envolve 120 redes de cooperação, nas quais participam três mil empresas que, juntas, empregam 35.000 pessoas e faturam mais de US$ 1 bilhão. Além disso, a relação próxima com as universidades vem possibilitando uma interação acadêmica em nível nacional que tem gerado avanços teórico-práticos para o fortalecimento da cooperação interorganizacional. Com base nas referências teóricas e em evidências observadas por estudos exploratórios, realizados ex ante no campo de pesquisa, identificaram-se cinco atributos de gestão de redes – mecanismos sociais, aspectos contratuais, motivação e comprometimento, integração com flexibilidade e organização estratégica – e cinco benefícios – ganhos de escala e de poder de mercado, provisão de soluções, aprendizagem e inovação, redução de custos e riscos, e relações sociais. Para confirmação ou não dos dez fatores identificados ex ante e o seu grau de importância, realizou-se uma análise conjunta em uma amostra de 443 proprietários de empresas de uma população de 3.087 associados às 120 redes do programa. Os dados empíricos foram coletados pelo pesquisador em 2005, sendo agregados e processados através do programa estatístico SPSS versão 12.0. Os resultados obtidos pela análise conjunta confirmaram a importância dos dez fatores identificados. Nenhum dos fatores destacou-se significativamente em relação aos demais, o que indica que todos eles têm impacto semelhante na gestão das redes. No campo de estudos sobre redes interorganizacionais, as conclusões da pesquisa contribuíram para uma melhor compreensão dos fatores que influenciam em maior ou menor grau a gestão de redes de cooperação. Demonstraram empiricamente, no caso brasileiro, a coerência de postulados teóricos, desenvolvidos por pesquisas realizadas em outros contextos. No que tange às políticas públicas, os resultados evidenciaram que a promoção da cooperação em redes possibilita ganhos competitivos para as pequenas empresas. No âmbito organizacional, os fatores realçados poderão orientar os gestores nas suas decisões estratégicas no sentido de ampliar os ganhos competitivos da ação em rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.