999 resultados para Programação heurística
Resumo:
A indústria automóvel é um dos setores mais exigentes do mercado global, por este motivo empresas como a Continental Mabor S.A, líderes de mercado, necessitam estar na linha da frente no que toca a programas de melhoria contínua e de uma gestão orientada para um crescimento rentável e sustentado. Nesta perspetiva, este estudo de dissertação tem como objetivo encontrar uma solução para a gestão de stock e FiFo (First in First out) de pneus em verde na supracitada empresa, situada em Lousado, Vila Nova de Famalicão. Este projeto de dissertação iniciou-se com uma análise e diagnóstico do processo produtivo do pneu, entre a Construção e a Vulcanização. Nesta análise, foi possível identificar vários problemas, sendo o mais crítico associado à logística interna de transporte do pneu “em curso”, de fabrico entre as fases do mesmo, Construção e Vulcanização. Devido a condicionantes estruturais e de organização, a logística interna de transporte entre estes dois sectores enfrenta estrangulamentos nos fluxos, a falta de espaço para acomodar o material em curso, problemas organizacionais de controlo e monitorização do processo produtivo, dificuldades de regulação do fluxo e localização dos carros de transporte dos pneus em verde. Face aos problemas detetados ao longo do estudo, foram analisadas várias soluções para a resolução ou minimização dos mesmos. Entre as soluções propostas salientam-se: o alargamento do sistema de transporte por tapetes rolantes GTC (Green Tire Conveying) a todos os módulos de construção. Esta solução diminui o fluxo de carros para a área da construção, descongestionando a zona próxima do sistema de carregamento automático GTAL (Green Tire Automatic Loading) na vulcanização. A implementação dum sistema Wi-Fi RFID, que permite identificar e localizar artigos em curso utilizando etiquetas inteligentes numa rede wireless, conseguindo melhorar a programação de produção e o respetivo sequenciamento. Sabendo também que a Continental se encontra numa fase de expansão, designada Projeto Route 17/20, as soluções propostas tomaram em consideração essa nova realidade futura. Assim, foram estudados e propostos novos layouts para esse atual processo. Nestes novos layouts, procurou-se uma reorganização dos processos de fabrico, bem como um redimensionamento dos espaços de parqueamento de carros de pneus verdes adequado aos volumes produtivos. De igual forma, adequou-se os espaços físicos à possível implementação de um sistema de FiFo de pneus em verde na planta fabril, quando concluída a expansão. Este trabalho de dissertação apresenta como vantagens diretas da sua implementação: gerar a menor perturbação no atual método de trabalho seguido na empresa; previsivelmente aumentar a eficiência do processo produtivo; potenciar o crescimento tecnológico programado pela empresa; e oferecer uma boa relação custo/benefício no investimento necessário. Como apreciação final, pode-se concluir que este estudo foi finalizado com sucesso, visto que as soluções propostas foram apreciadas positivamente pela Administração da Continental Mabor S.A. e estão correntemente a ser avaliadas pelo grupo.
Resumo:
A realização desta Tese/Dissertação tem como objectivo o estudo e implementação piloto de um Sistema de Supervisão e Aquisição de dados (SCADA) na Swedwood Portugal, na qual exerço as funções de Engenheiro de Processo nas linhas de montagem de mobiliário. Foi efectuado um estudo das necessidades da empresa relativamente às melhorias dos processos das linhas de montagem, com o intuito de melhorar a montagem do semi-produto, a nível de qualidade das matérias-primas, operação e desempenho de equipamentos. Chegou-se à conclusão que existe uma grande necessidade de controlar a qualidade das matérias-primas utilizadas na construção do semi-produto em tempo real, de modo a que seja possível diminuir a complexidade na recolha atempada de amostras por parte dos elementos de operação e diminuir o atraso da entrega de resultados das amostras por parte do laboratório. A colagem é um elemento crítico na montagem do semi-produto, devido às variações de viscosidade da cola, consequência das variações climatéricas a que foi sujeita, desde a saída do fornecedor até à sua utilização nas linhas de montagem. Para tal concebeu-se uma solução para dar uma resposta mais rápida no controlo de qualidade da cola à base de acetato de polivinil (PVAC), ou seja, a implementação piloto de um sistema SCADA na sala de colas, de modo a que haja um controlo a nível de temperatura e humidade, controlo de viscosidade em tempo real e controlo do nível da cola na cuba, fazendo com que haja só uma supervisão por parte dos elementos de operação. Optou-se por um conjunto de hardware e software da SIMATIC desenvolvido pela Siemens, para elaboração da programação e desenvolvimento da Interface Homem Máquina (HMI).
Resumo:
O objectivo deste trabalho é optimizar o planeamento de produção tendo como meta a redução do custo total da energia eléctrica consumida. Este trabalho está dividido em 3 etapas distintas: na 1ª etapa foi feito um levantamento do problema, das restrições do mesmo e da escolha do modelo para a sua resolução. Na etapa seguinte, fez-se a escolha da ferramenta a usar, que foi o Xpress, e fez-se a implementação do problema nessa mesma ferramenta. E por fim, na 3ª etapa, foi feita a validação do modelo e análise das soluções obtidas com comparações com que o era feito antes. Recorrendo a programação inteira foi desenvolvido um modelo de optimização para atingir o objectivo em causa e consequentemente foi escrito o código que reflectisse o modelo matemático. Todos os passos necessários à sua implementação foram concluídos e validados com comparação com o que antes se fazia, notando-se assim melhorias ao nível de eficiência energética na ordem dos 8%, mas também uma melhoria no aproveitamento de recursos humanos e tempo que eram despendidos para desenvolver planos de produção de forma manual. Essa melhoria temporal que se compreende entre quatro a seis horas semanais pode ser aplicada noutras actividades da empresa com maior valor acrescentado.
Resumo:
A crescente complexidade dos sistemas electrónicos associada a um desenvolvimento nas tecnologias de encapsulamento levou à miniaturização dos circuitos integrados, provocando dificuldades e limitações no diagnóstico e detecção de falhas, diminuindo drasticamente a aplicabilidade dos equipamentos ICT. Como forma de lidar com este problema surgiu a infra-estrutura Boundary Scan descrita na norma IEEE1149.1 “Test Access Port and Boundary-Scan Architecture”, aprovada em 1990. Sendo esta solução tecnicamente viável e interessante economicamente para o diagnóstico de defeitos, efectua também outras aplicações. O SVF surgiu do desejo de incutir e fazer com que os fornecedores independentes incluíssem a norma IEEE 1149.1, é desenvolvido num formato ASCII, com o objectivo de enviar sinais, aguardar pela sua resposta, segundo a máscara de dados baseada na norma IEEE1149.1. Actualmente a incorporação do Boundary Scan nos circuitos integrados está em grande expansão e consequentemente usufrui de uma forte implementação no mercado. Neste contexto o objectivo da dissertação é o desenvolvimento de um controlador boundary scan que implemente uma interface com o PC e possibilite o controlo e monitorização da aplicação de teste ao PCB. A arquitectura do controlador desenvolvido contém um módulo de Memória de entrada, um Controlador TAP e uma Memória de saída. A implementação do controlador foi feita através da utilização de uma FPGA, é um dispositivo lógico reconfiguráveis constituído por blocos lógicos e por uma rede de interligações, ambos configuráveis, que permitem ao utilizador implementar as mais variadas funções digitais. A utilização de uma FPGA tem a vantagem de permitir a versatilidade do controlador, facilidade na alteração do seu código e possibilidade de inserir mais controladores dentro da FPGA. Foi desenvolvido o protocolo de comunicação e sincronização entre os vários módulos, permitindo o controlo e monitorização dos estímulos enviados e recebidos ao PCB, executados automaticamente através do software do Controlador TAP e de acordo com a norma IEEE 1149.1. A solução proposta foi validada por simulação utilizando o simulador da Xilinx. Foram analisados todos os sinais que constituem o controlador e verificado o correcto funcionamento de todos os seus módulos. Esta solução executa todas as sequências pretendidas e necessárias (envio de estímulos) à realização dos testes ao PCB. Recebe e armazena os dados obtidos, enviando-os posteriormente para a memória de saída. A execução do trabalho permitiu concluir que os projectos de componentes electrónicos tenderão a ser descritos num nível de abstracção mais elevado, recorrendo cada vez mais ao uso de linguagens de hardware, no qual o VHDL é uma excelente ferramenta de programação. O controlador desenvolvido será uma ferramenta bastante útil e versátil para o teste de PCBs e outras funcionalidades disponibilizadas pelas infra-estruturas BS.
Resumo:
Os laboratórios de experimentação remota estão normalmente associados a tecnologias ou soluções proprietárias, as quais restringem a sua utilização a determinadas plataformas e obrigam ao uso de software específico no lado do cliente. O ISEP possui um laboratório de experimentação remota, baseado em instrumentação virtual, usado no apoio ao ensino da electrónica e construído sobre uma plataforma NIELVIS da National Instruments. O software de controlo da plataforma recorre à linguagem gráfica de programação LabVIEW. Esta é uma ferramenta desenvolvida pela National Instruments que facilita o desenvolvimento de aplicações de sistemas de experimentação remota, mas que possui várias limitações, nomeadamente a necessidade de instalação do lado do cliente de um plug-in, cuja disponibilidade se encontra limitada a determinadas versões de sistemas operativos e de Web Browsers. A experiência anterior demonstrou que estas questões limitam o número de clientes com possibilidade de acesso ao laboratório remoto, para além de, em alguns casos, se ter verificado não ser transparente a sua instalação e utilização. Neste contexto, o trabalho de investigação consistiu no desenvolvimento de uma solução que permite a geração de interfaces que possibilitam o controlo remoto do sistema implementado, e que, ao mesmo tempo, são independentes da plataforma usada pelo cliente.
Resumo:
Este trabalho baseia-se num caso de estudo real de planeamento de operações de armazenagem num silo rural de cereais, e enquadra-se nos problemas de planeamento e programação de armazéns. Os programadores deparam-se diariamente com o problema de arranjar a melhor solução de transferência entre células de armazenagem, tentando maximizar o número de células vazias, por forma a ter maior capacidade para receber novos lotes, respeitando as restrições de receção e expedição, e as restrições de capacidade das linhas de transporte. Foi desenvolvido um modelo matemático de programação linear inteira mista e uma aplicação em Excel, com recurso ao VBA, para a sua implementação. Esta implementação abrangeu todo o processo relativo à atividade em causa, isto é, vai desde a recolha de dados, seu tratamento e análise, até à solução final de distribuição dos vários produtos pelas várias células. Os resultados obtidos mostram que o modelo otimiza o número de células vazias, tendo em conta os produtos que estão armazenados mais os que estão para ser rececionados e expedidos, em tempo computacional inferior a 60 segundos, constituindo, assim, uma importante mais valia para a empresa em causa.
Resumo:
Actualmente verifica-se que a complexidade dos sistemas informáticos tem vindo a aumentar, fazendo parte das nossas ferramentas diárias de trabalho a utilização de sistemas informáticos e a utilização de serviços online. Neste âmbito, a internet obtém um papel de destaque junto das universidades, ao permitir que alunos e professores possam interagir mais facilmente. A internet e a educação baseada na Web vêm oferecer acesso remoto a qualquer informação independentemente da localização ou da hora. Como consequência, qualquer pessoa com uma ligação à internet, ao poder adquirir informações sobre um determinado tema junto dos maiores peritos, obtém vantagens significativas. Os laboratórios remotos são uma solução muito valorizada no que toca a interligar tecnologia e recursos humanos em ambientes que podem estar afastados no tempo ou no espaço. A criação deste tipo de laboratórios e a sua utilidade real só é possível porque as tecnologias de comunicação emergentes têm contribuído de uma forma muito relevante para melhorar a sua disponibilização à distância. A necessidade de criação de laboratórios remotos torna-se imprescindível para pesquisas relacionadas com engenharia que envolvam a utilização de recursos escassos ou de grandes dimensões. Apoiado neste conceito, desenvolveu-se um laboratório remoto para os alunos de engenharia que precisam de testar circuitos digitais numa carta de desenvolvimento de hardware configurável, permitindo a utilização deste recurso de uma forma mais eficiente. O trabalho consistiu na criação de um laboratório remoto de baixo custo, com base em linguagens de programação open source, sendo utilizado como unidade de processamento um router da ASUS com o firmware OpenWrt. Este firmware é uma distribuição Linux para sistemas embutidos. Este laboratório remoto permite o teste dos circuitos digitais numa carta de desenvolvimento de hardware configurável em tempo real, utilizando a interface JTAG. O laboratório desenvolvido tem a particularidade de ter como unidade de processamento um router. A utilização do router como servidor é uma solução muito pouco usual na implementação de laboratórios remotos. Este router, quando comparado com um computador normal, apresenta uma capacidade de processamento e memória muito inferior, embora os testes efectuados provassem que apresenta um desempenho muito adequado às expectativas.
Resumo:
O presente trabalho visa denotar a importância de ferramentas e técnicas utilizadas como apoio à tomada de decisão. Foi proposto um problema de corte cujo objectivo primordial procura minimizar o desperdício gerado resultante do processo de obtenção de um produto, utilizando um caso representativo de um produto em chapa, fabricado por uma empresa que conta três décadas de laboração contínua, proposeram-se e realizaram-se estudos no sentido de solucionar recursos causadores de desperdício. Neste trabalho aplicou-se um problema de corte bi-dimensional a uma indústria que recorre ao fabrico de produtos em chapa, por forma a minimizar o desperdício relativo ao processo utilizado. Propôs-se quatro alternativas à solução actual realizada na empresa, que passa pela disposição e combinação de vários tipos de cortes-padrão que podem ser executados nas diferentes dimensões de matéria-prima disponibilizada. Estas alternativas têm como vantagem apresentar reduções que se traduzam significativas para os custos implícitos à realização do processo produtivo. Os estudos computacionais praticados mostraram que as soluções propostas como alternativa obtiveram melhores resultados que os obtidos pela empresa, excepto num caso.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
Este trabalho é uma parte do tema global “Suporte à Computação Paralela e Distribuída em Java”, também tema da tese de Daniel Barciela no mestrado de Engenharia Informática do Instituto Superior de Engenharia do Porto. O seu objetivo principal consiste na definição/criação da interface com o programador, assim como também abrange a forma como os nós comunicam e cooperam entre si para a execução de determinadas tarefas, de modo a atingirem um único objetivo global. No âmbito desta dissertação foi realizado um estudo prévio relativamente aos modelos teóricos referentes à computação paralela, assim como também foram analisadas linguagens e frameworks que fornecem suporte a este mesmo tipo de computação. Este estudo teve como principal objetivo a análise da forma como estes modelos e linguagens permitem ao programador expressar o processamento paralelo no desenvolvimento das aplicações. Como resultado desta dissertação surgiu a framework denominada Distributed Parallel Framework for Java (DPF4j), cujo objetivo principal é fornecer aos programadores o suporte para o desenvolvimento de aplicações paralelas e distribuídas. Esta framework foi desenvolvida na linguagem Java. Esta dissertação contempla a parte referente à interface de programação e a toda a comunicação entre nós cooperantes da framework DPF4j. Por fim, foi demonstrado através dos testes realizados que a DPF4j, apesar de ser ainda um protótipo, já demonstra ter uma performance superior a outras frameworks e linguagens que possuem os mesmos objetivos.
Resumo:
Este estudo tem por objectivo reflectir sobre o papel da Terminologia na organização conceptual e linguística das áreas de especialidade. Defender-se-á que, pela sua natureza hermenêutica, organizadora, harmonizadora e heurística, esta área científica poderá reduzir a complexidade e a fragmentação lexical e conceptual que impera no domínio dos modelos de educação para o Ensino Superior, permitindo ajudar a clarificar a filiação ideológica das várias visões de ensino, levando deste modo a que o debate seja epistemologicamente transparente. Será focado o caso particular do Blended-Learning, enquanto exemplo de um sub-domínio ainda instável, do ponto de vista da sua organização ontológica e da sua materialização linguística e terminológica.
Resumo:
Neste livro, procede-se à caracterização e análise da saúde no concelho de Loures, colocando o foco em três dimensões – 1) estado de saúde e incidência das doenças; 2) práticas de saúde; 3) estilos de vida relacionados com a saúde. Os resultados apresentados foram obtidos no quadro de um projeto de investigação marcadamente quantitativo, suportado em grande parte, ainda que não exclusivamente, por um inquérito aplicado a uma amostra representativa da população adulta residente no concelho de Loures. Os dados expostos, referentes a um leque diversificado de variáveis que operacionalizam as três dimensões em análise, evidenciam tendências gerais e, simultaneamente, diferenças significativas e desigualdades sociais acentuadas entre os diferentes segmentos da população, em termos de sexo, escolaridade, classe social, nacionalidade, situação face à profissão e idade. A sua leitura pode contribuir para um conhecimento mais sustentado relativamente à saúde no concelho de Loures e consubstanciar-se, igualmente, como uma ferramenta útil para a definição e programação de ações específicas e de estratégias de intervenção a implementar neste concelho. A publicação do presente livro dá a conhecer o produto de um projeto de investigação enquadrado por uma parceria estabelecida entre a Escola Superior de Tecnologia da Saúde do Instituto Politécnico de Lisboa e a Câmara Municipal de Loures, contribuindo para a redução da lacuna existente em Portugal, relativamente à carência de trabalhos de investigação científica com uma dimensão considerável, realizados à escala nacional ou municipal, sobre problemáticas relacionadas com a saúde e a doença.
Resumo:
A apresentação pretende ilustrar a cobertura que a imprensa nacional realizou ao acontecimento Porto Capital Europeia da Cultura em 2001. A análise contempla os jornais Público, Diário de Notícias, Jornal de Notícias, Correio da Manhã e Expresso e a revista Visão no período anterior ao do evento (ano de 2000), durante e após, para se conseguir definir as etapas que marcaram os diferentes momentos do acontecimento, os padrões de atuação, o tipo de planeamento e as especificidades ao nível da programação. Na génese do projeto das Capitais Europeias da Cultura, da autoria da ministra da cultura grega e que aconteceu pela primeira vez em Atenas em 1985, estava a ideia de eleger, de ano para ano, uma cidade em que se apresentassem novos paradigmas culturais. Lisboa foi a primeira cidade portuguesa a acolher, em 1994, a iniciativa, seguiu-se o Porto em 2001 e em 2012 é a vez de Guimarães. Protagonista da descentralização cultural, é um modelo que tem permitido o financiamento de obras públicas (lembre-se a Casa da Música no Porto), o restauro de património e a promoção das cidades em termos turísticos. No entanto, espera-se ver questionado o seu papel enquanto lugares de inovação quer em termos de políticas culturais, quer em termos de produção e inovação artística. No artigo “Capitais europeias da cultura: que fazer com elas?”, publicado no suplemento Ípsilon do jornal Público de 1 de Abril de 2011, António Pinto Ribeiro refere a insustentabilidade das cidades após o ano de capital cultural, “as expectativas goradas da maioria dos seus cidadãos e a retração no apoio à produção que acontece sempre no período pós-capital”. Espera-se através desta análise conseguir demarcar os momentos que ganharam visibilidade e enformaram o acontecimento para, de forma crítica, se poder refletir sobre o papel da imprensa na divulgação e promoção de eventos de cariz cultural.
Resumo:
Através da análise de imprensa é possível verificar o papel que este meio de comunicação tradicional desempenha na construção da perceção dos eventos e na existência simbólica e material das cidades do Porto e Guimarães que acolheram em 2001 e 2012, respetivamente, o evento Capital Europeia da Cultura. A cobertura jornalística desviou-se da divulgação da programação dos eventos para a sugestão de roteiros de visita e pouco ou nada questiona o papel que as cidades, ao promover iniciativas deste tipo, têm enquanto lugares de inovação em termos de políticas culturais, de produção e inovação artística, na requalificação urbana e ambiental, na revitalização económica, na formação e criação de novos artistas e novos públicos.
Resumo:
Os jornais não acompanham o movimento de descentralização cultural iniciado na última década do séc. XX e descuida a programação realizada nos equipamentos espalhados um pouco por todo o país e pelos diversos grupos artísticos e culturais a desenvolver o seu trabalho fora de Lisboa. Que estratégias têm seguido esses equipamentos para contornar esta situação, para ganhar visibilidade de outras formas. Sabendo que a imprensa tem um papel importante ao incitar à ação e em formar opiniões e atitudes sobre os assuntos, aposta-se na imprensa regional e em meios cuja produção e atualização depende das próprias estruturas, nomeadamente sites e presença nas redes sociais. No entanto, se se quer atrair visitantes de fora da região, a imprensa continua a conseguir fixar o interesse e trazer público, menor é o papel que desempenha junto dos residentes. Levar os residentes a participar é algo que passa por outras estratégias de comunicação que não a imprensa nacional, e é nessas estratégias que muitas vezes os responsáveis por estas estruturas se centram, desenvolvendo e promovendo outras fontes de experiência.