126 resultados para Processos Sistemáticos de Inovação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho propõe-se a avaliar a integração do Mercosul em seus primeiros dez anos de existência, sob uma expectativa de que esta integração foi bem sucedida. A hipótese presente é a de que a ampliação do mercado que a integração propiciou tenha permitido criar estímulos à construção de vantagens competitivas e melhorar a inserção internacional das economias integradas. Busca-se aplicar os avanços recentes do pensamento acadêmico que inter-relaciona os temas comércio internacional, tecnologia e competitividade como meio de construir vantagem competitiva. O estudo está centrado na questão da competitividade das exportações. Na maioria das análises trabalha-se com a base de dados de comércio internacional CUCI (Classificação Uniforme para o Comércio Exterior) e a metodologia CAN2000 (Competitiveness Analysis of Nations) da Divisão Cepal/Onudi de Indústria e Tecnologia, para avaliar o impacto da integração em setores industriais. O âmbito teórico para ajudar nessa análise e ao qual o presente trabalho se insere encontra-se dentro do campo analítico da abordagem neo-schumpeteriana. A abordagem permite a discussão das estratégias empresariais, o papel da inovação e da concorrência na criação de vantagens competitivas, as diferenças de comportamento entre firmas em um mesmo setor, a presença de falhas de mercado, os diferentes processos de acumulação de experiência e aprendizagem por parte das firmas, os regimes tecnológicos, a complexidade institucional, as incertezas que cercam a conduta tecnológica e inovativa das empresas, as transformações nos ambientes econômicos, entre outros elementos, que auxiliaram a interpretar as mudanças do padrão de especialização e da estrutura da indústria no âmbito do Mercosul. Conclui-se que a integração per se motivou a melhora competitiva, mas em ritmo lento, o que leva a propor que devam ser adotadas medidas complementares para expandir as exportações, mediante apoio a setores selecionados entre os de maior crescimento do comércio mundial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação apresenta uma abordagem sistemática para garantir a estabilidade dos resultados dos processos e, assim, o alcance das metas de produção e qualidade. Essa abordagem contempla oito etapas principais: (I) identificação do processo crítico, (iI) tratamento do processo crítico, (iil) padronização operacional, (iv) treinamento operacional, (v) operação conforme o padrão, (VI) tratamento de anomalias, (vil) auditoria de padrão e (viiI) controle estatístico de processo. A metodologia proposta, chamada de "Estabilização de Processo", se propõe a garantir a previsibilidade dos resultados dos processos operacionais de maneira focada, através da identificação dos processos críticos, de seus indicadores, de suas metas-padrão e da manutenção do seu resultado numa faixa de domínio que atenda às necessidades dos clientes. As principais vantagens do método são: (I) um método simples e organizado de atividades corretivas e preventivas, (if) a abordagem estatística, que fornece uma base sólida para a tomada de decisões e (iil) o gerenciamento do processo da rotina com foco no par operador-tarefa. Por fim, é apresentado e discutido um estudo de caso em uma indústria siderúrgica, que contribui para a validação do método proposto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cartas de controle estatístico têm sido utilizadas com sucesso no monitoramento do desempenho de processos industriais. Diversas modificações nas cartas tradicionais de Shewhart vêm sendo propostas na literatura. Tais modificações visam adaptar as cartas de controle ao monitoramento de processos com características especiais; entre elas, destacam-se as cartas de controle adaptativas. As cartas são ditas adaptativas quando pelo menos um de seus parâmetros (tamanho de amostra, intervalo de amostragem e coeficiente dos limites de controle) pode variar durante o monitoramento do processo. A determinação dos valores dos parâmetros das cartas de controle pode considerar aspectos estatísticos, econômicos ou uma combinação de ambos. Os modelos estatístico-econômicos consideram, além de indicadores de desempenho estatístico, os custos associados ao controle. A implementação de cartas adaptativas baseadas neste tipo de modelo, devido a sua complexidade, é melhor conduzida por meio de uma metodologia de planejamento. Neste trabalho, após uma revisão da literatura sobre cartas tradicionais e adaptativas, incluindo o projeto econômico das mesmas, propõe-se uma metodologia para o planejamento da implementação de cartas adaptativas de controle para monitorar processos onde cartas de controle tradicionais estão sendo utilizadas A metodologia é composta de cinco passos gerais, detalhados na dissertação, e foi elaborada a partir de um estudo de caso em uma indústria do setor automotivo, no qual se utilizou um modelo estatístico-econômico. No estudo de caso, o significado e a forma de determinação dos parâmetros do modelo econômico são detalhados. Os resultados do estudo de caso são comparados quanto aos custos operacionais para as cartas adaptativas e tradicionais de controle de processo. Os resultados obtidos indicaram ser preferível o uso de cartas adaptativas ao uso de cartas tradicionais para monitorar o processo estudado, principalmente no caso de pequenas variações na média da característica de qualidade monitorada. Embora de natureza genérica, a metodologia proposta pode ser facilmente adaptada para contemplar diferentes aplicações industriais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das características da Região Sudoeste do Rio Grande do Sul é a presença de areais e focos de arenização. Estes processos de degradação do solo têm sido interpretados de várias formas, principalmente, aquelas que atribuem sua origem à ação antrópica. Os seguidores desta interpretação têm tornado o tema controvertido, mesmo após estudos sistemáticos de pesquisadores da universidade que explicam esta gênese como natural. Este estudo tem como objetivo contribuir para a explicação da gênese destes areais como um processo natural. Para isto, buscaram-se subsídios em outras áreas correlatas da ciência, além da Geografia, como a Geomorfologia, a Pedologia, a Geologia, e a Arqueologia. A hipótese que norteia este trabalho tem como apoio os fatos históricos e préhistóricos que comprovam a existência de páleo-indígenas coabitando com estes areais há, pelo menos, 3.500 A. P.. O que queremos demonstrar é que a hipótese de uma degradação destes, através da ação antrópica, pela monocultura e o super-pastoreio, torna-se relativizada, no momento em que pode ser comprovada a existência destes areais já antes da ocupação européia na região. Nossa argumentação é reforçada através dos dados apresentados pela Arqueologia que comprovam a existência de povos caçadores-coletores numa relação homem-meio nesta região desde o início do Holoceno.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação de mestrado trata do tema Total Productive Maintenance (TPM) ou Manutenção Produtiva Total (MPT). O principal objetivo é avaliar sua contribuição no gerenciamento das atividades de manutenção industrial e como uma ferramenta da engenharia de processos para otimização dos processos de manufatura. A avaliação foi realizada com base em estudo de caso onde o TPM foi implementado em uma empresa do ramo eletro - eletrônico localizada na cidade de Caxias do Sul - RS. O plano de implementação foi elaborado baseado em revisão bibliográfica, a qual considerou o pensamento de autores nacionais e internacionais bem como a adequação do TPM levando em consideração a cultura e a realidade do sistema produtivo da empresa. A parte prática do programa envolveu a aplicação dos conceitos e filosofias fundamentais do TPM no sistema produtivo da empresa. Os principais resultados mensuráveis obtidos com a implementação, foram: (1) a elevação do Índice de Rendimento Operacional Global (IROG) de 0,552 para 0,634, observado nas máquinas consideradas restrição do sistema produtivo do setor (gargalos), (2) a redução nas quebras de máquinas em aproximadamente 45 %, (3) a criação de um ambiente que incentiva a participação dos funcionários com sugestões de melhorias, atingindo 3,2 sugestões de melhorias por funcionário por ano e, (4) reduções de 12,6 % de energia elétrica, 40 % no consumo de água e 797 litros de óleo lubrificante por ano. Entre os beneficios não mensuráveis destacam-se a criação de um ambiente de trabalho limpo, organizado e seguro, a formação de operadores multifuncionais e a eliminação de atmosfera de confronto que existia entre a operação e a manutenção. O estudo de caso também mostrou que o comprometimento da alta direção é fator fundamental para o sucesso do TPM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para competir em nível internacional, as empresas brasileiras precisam atingir padrões de excelência em qualidade. Uma forma de atingir esses padrões é utilizando ferramentas de controle de qualidade que asseguremprocessos estáveis e capazes. A presente dissertação tem como objetivo principal o desenvolvimento de uma metodologia de estabilização de processos voltada às empresas de manufatura utilizando ferramentas de controle de qualidade. Sua importância está em apresentar uma metodologia que auxilie as empresas na obtenção de melhorias significativas em qualidade e produtividade. O método de trabalho utilizado envolveu as etapas de revisão da literatura, acompanhamento e análise da implantação de uma metodologia de estabilização de processos em uma empresa siderúrgica e, finalmente, proposta e discussão de uma nova metodologia de estabilização de processos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação versa sobre índices de avaliação de processo nas suas abordagens univariada e multivariada. Analisa-se a utilização da Análise de Componentes Principais (ACP) como ferramenta no desenvolvimento de índices capazes de avaliar processos multivariados. O trabalho apresenta uma revisão teórica sobre os índices univariados de aplicação mais comum na indústria (CP/PP , CPK/PPK , CPM/PPM e CPMK/PPMK), o índice multivariado MCpm e sobre os índices MCP , MCPK , MCPM e MCPMK , associados a ACP. Os índices de avaliação de processo são analisados quanto à sua adequação ao uso, através de um estudo de caso na indústria de componentes automotivos. Para tanto, examina-se o processo de fabricação de um componente do freio de veículos médios e pesados, denominado spider, em que doze variáveis de processo são controladas por meio de controle estatístico de processo. Através do estudo de caso, faz-se uma comparação entre os resultados dos índices univariados e multivariados; pressupõe-se que através da Análise de Componentes Principais poder-se-á concluir sobre a capacidade e o desempenho de processos multivariados. Por fim, a partir da análise univariada dos componentes principais, apresenta-se uma técnica complementar para quantificar a contribuição das variáveis controladas à variabilidade de processos multivariados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A produção de soja é uma das principais atividades econômicas na Região Noroeste do Estado do Rio Grande do Sul. As perdas de produto em condições de comercialização ocasionadas nas atividades de secagem e armazenamento são significativas, justificando a pesquisa e aprimoramento destes processos. Nesta tese foram pesquisados dois problemas: 1. Modelamento matemático dos processos de secagem, utilizando parâmetros conhecidos de soja e 2. Modelamento matemático do problema de aeração para o cálculo da distribuição da pressão e da velocidade do ar na massa de grãos em unidades de armazenamento de soja. No problema de secagem foi desenvolvido um sistema composto de quatro equações diferenciais parciais hiperbólicas acopladas não-lineares, que descreve o comportamento da temperatura e do teor de umidade do ar e dos grãos em função do tempo. Para resolver o sistema foram utilizados os métodos das diferenças finitas (p. ex., métodos de MacCormack e Crank- Nicolson.) e o método dos volumes finitos. A análise dos resultados permitiu recomendar o método mais adequado para cada tipo do problema. Para determinação da intensidade do fluxo de massa e de calor foram utilizados os dados experimentais de camada fina obtidos da literatura e complementados com dados experimentais desta tese. Foi desenvolvido um equipamento para obtenção das curvas de secagem de grãos em secador de leito fixo, a fim de identificar o modelo para secagem em camada espessa. A comparação entre os resultados experimentais e das simulações numéricas mostrou que o modelo descreve razoavelmente a dinâmica de secagem No problema de aeração foi desenvolvido um modelo matemático que descreve o escoamento do ar em sistemas de armazenamento de grãos, baseado em relações experimentais entre velocidade e gradiente de pressão. Para resolver o problema de aeração foi utilizado o método dos elementos finitos e desenvolvido um programa computacional. Um teste realizado com o programa mostrou que os resultados da solução numérica convergem para uma solução analítica conhecida. As simulações realizadas mostraram que o programa computacional pode ser usado como instrumento auxiliar para o projeto de silos, possibilitando o cálculo e a visualização gráfica da distribuição das pressões e das linhas de corrente em diferentes seções do armazém.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho investiga os processos composicionais utilizados na composição das peças Polyakanthos, para flauta/flauta piccolo, clarinete/clarinete baixo, percussão, piano, violino e violoncelo; A grande ilusão do carnaval, para cinco vozes, fagote, dois teclados eletrônicos e contrabaixo elétrico; K'uei, peça eletroacústica; e Pampa Guarany, para fagote e orquestra de cordas. A estética das peças é baseada em dualismo complementar, fazendo com que posições contrárias coexistam numa associação interdependente, nas diversas etapas do processo composicional. Os processos composicionais enfocados são o ímpeto de criação, que no contexto deste trabalho é a primeira concretização da idéia composicional; a utilização de materiais preexistentes, definidos como configurações de sons e silêncios extraídos de obras de outros compositores; o projeto da estrutura formal, contendo as intenções expressivas em comparação com o resultado final de cada peça, verificando causas e conseqüências dos ajustes feitos durante o processo composicional; definição dos materiais de alturas e ritmos, derivados dos materiais preexistentes ou criados, nos quais foram aplicadas as técnicas de transformações de Arnold Schoenberg, León Biriotti e Charles Wuorinen; e o uso de peças-solo como cantus firmus para a criação de estruturas polifônicas nos movimentos de Polyakanthos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um dos problemas teóricos mais importantes da Física de Partículas de Altas Energias é a investigação de efeitos de alta densidade na Cromodinâmica Quântica (QCD), que é a teoria que descreve as interações fortes. Tais efeitos são importantes pois determinam os observáveis em colisõesde altas energias. Em processos hadrônicos de energia suficientemente alta, espera-se a formação de sistemas densos o suficiente para que efeitos não lineares de QCD passem a ser significativos na descrição e na unitarização da seção de choque. Na descrição de processos de espalhamento de altas energias, evidências experimentais indicam que os hádrons são constituídos por partículas puntuais, as quais chamamos de pártons. Os pártons carregam uma fração x do momentum total do hádron, e são de dois tipos, quarks e glúons. Na interação entre as partículas ocorre a troca de momentum, definida como Q2. A descrição perturbativa padrão para a evolução dinâmica das distribuições de quarks q(x, Q2) e glúons g(x, Q2), pode ser dada pelas equações de evolução DGLAP, e tem obtido sucesso na descrição dos resultados experimentais para as presentes energias. Na evolução DGLAP, são considerados apenas processos de emissão, como a emissão de um glúon por um quark, o decaimento de um glúon em um par de quarks ou em um par de glúons Estes processos de emissão tendem a aumentar a densidade de pártons na região de pequeno momentum, levando a um crescimento ilimitado das distribuições partônicas para x -+ O. Assim, é esperado que o crescimento da densidade de pártons leve a interação e recombinação destas partículas, dando origem a termos não lineares nas equações de evolução. O resultado seria um processo de saturação das distribuições de pártons na região de alta energia e pequena fração de momentum. Os efeitos que dão origem à redução do crescimento das distribuições de quarks e glúons em relação a evolução linear são chamados genericamente de efeitos de sombreamento. Um dos aspectos fenomenológicosinteressantes a ser investigado no regime cinemático abordado acima é o processo Drell-Yan de alta energia, o qual consiste em processos de espalhamento pp, pA e AA com a produção de pares de léptons. Com o advento dos novos aceleradores, novos resultados experimentais estarão disponíveis na literatura relacionados com este processo. Em nosso trabalho investigamos os efeitos das correções de unitariedade em processos pp, bem como os efeitos devido a presença do meio nuclear em colisõespA e AA, nas distribuições de quarks e glúons, para a descrição da seção de choque diferencial para o processo Drell-Yan em colisõespp, pA e AA, para energias existentes nos novos aceleradores RHIC (Relativistic Heavy Ion Collider) e LHC (Large Ion Collider). Os efeitos de alta densidade são baseados no formalismo de Glauber-Mueller. Os resultados aqui apresentados mostram que os efeitos de alta densidade nas distribuições partônicas são importantes para altas energias, pois a descrição da seção de choque para o processo Drell-Yan, quando os efeitos de alta densidade são considerados, apresenta significativas diferenças da descrição onde não considera-se tais efeitos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de melhor se adaptar ao ambiente de competição (informacional) global, que se estrutura e se impõe a partir de uma ´divisão inter-regional do trabalho´, as regiões tendem a desenvolver estratégias de planejamento regional e urbano com o objetivo de impulsionar o parque produtivo informacional local. Intentam desta maneira compôr mecanismos locais que permitam a formação de um Sistema Local de Inovação, baseado na interação sinergética entre os atores sociais. Esta articulação regional trabalha em diversas esferas espaciais (e consequentemente temporais), uma vez que a fluida lógica estrutural do sistema informacional global (´espaço de fluxos´) difere dos mecanismos locais de articulação, pois estes estão ligados teluricamente às tradições culturais (´espaço de lugares´). Segundo Castells, o ´espaço de fluxos´ é definido como sendo um sistema de alcance global estruturado em redes (nós e eixos) permeadas por informações que circulam (eletronicamente) instantaneamente. Porém a dinâmica do sistema é gerada a partir do historicamente construído ´espaço de lugares´(local), articulado reflexivamente a partir da ação de três instituições internas (reconhecidas pelo modelo da Hélice Tripla como: universidades, empresas e governo). De maneira geral, podemos observar que a universidade, enquanto instituição empreendedora e voltada para a produção de inovações informacionais, passa a exercer importante função catalisadora deste processo de organização das forças produtivas regionais (a nível de ´espaço de lugares´) Reconhecendo que há uma tendência à incompatibilidade entre as esferas espaciais de articulação citadas (embora elas tenham uma existência ativa), esta dissertação irá sugerir a pertinência da observação de uma articulação espacial híbrida, tanto global-informacional quanto local-cultural (denominada ´espaço híbrido´), atuando estrategicamente na construção dos Sistemas Locais de Inovação. Desta maneira, com a finalidade de estruturar espacialmente os Sistemas Locais de Inovação, uma das principais estratégias que o planejador regional dispõe é a da formação e potencialização de clusters espaciais de inovação, na forma de programas de criação de pólos e/ou parques tecnológicos (e/ou tecnópoles). Tendo como objetivo a criação de um processo produtivo local sinergético e informacional, são projetadas e aplicadas políticas industriais e urbanas de longo prazo que buscam retirar o máximo possível da proximidade espacial existente e/ou induzida. Como estudo de caso, serão analisados projetos intra-urbanos atuantes nas áreas das Ciências da Vida. Inicialmente serão apresentados quatro casos internacionais, para por fim serem comparados ao projeto Porto Alegre Tecnópole (e em especial ao projeto Cidade Saúde de Porto Alegre).