41 resultados para Otimização inteira
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
O presente trabalho tem como objetivo analisar a cinética de secagem do bacalhau salgado verde (Gadus morhua) em secador convectivo. É apresentada a análise da composição físico-química dos bacalhaus utilizados nos ensaios experimentais, bem como o estudo das isotermas de sorção do produto, através de experiências e modelação matemática. Dos modelos usados para o ajuste das isotermas de sorção do bacalhau salgado verde, o que melhor se adaptou aos resultados experimentais foi o modelo de GAB Modificado, com coeficientes de correlação variando entre 0,992 e 0,998. Para o controlo do processo de secagem (nomeadamente os parâmetros temperatura, humidade relativa e velocidade do ar) foi utilizada lógica difusa, através do desenvolvimento de controladores difusos para o humidificador, desumidificador, resistências de aquecimento e ventilador. A modelação do processo de secagem foi realizada através de redes neuronais artificiais (RNA), modelo semi-empírico de Page e modelo difusivo de Fick. A comparação entre dados experimentais e simulados, para cada modelo, apresentou os seguintes erros: entre 1,43 e 11,58 para o modelo de Page, 0,34 e 4,59 para o modelo de Fick e entre 1,13 e 6,99 para a RNA, com médias de 4,38, 1,67 e 2,93 respectivamente. O modelo obtido pelas redes neuronais artificiais foi submetido a um algoritmo de otimização, a fim de buscar os parâmetros ideais de secagem, de forma a minimizar o tempo do processo e maximizar a perda de água do bacalhau. Os parâmetros ótimos obtidos para o processo de secagem, após otimização realizada, para obter-se uma humidade adimensional final de 0,65 foram: tempo de 68,6h, temperatura de 21,45°C, humidade relativa de 51,6% e velocidade de 1,5m/s. Foram também determinados os custos de secagem para as diferentes condições operacionais na instalação experimental. Os consumos por hora de secagem variaram entre 1,15 kWh e 2,87kWh, com uma média de 1,94kWh.
Resumo:
O objetivo deste trabalho foi efetuar um estudo de otimização dos parâmetros de exposição do mamógrafo digital da marca GE, modelo Senographe DS instalado no Instituto Português de Oncologia de Coimbra (IPOC) baseado numa análise contraste detalhe e avaliar o impacto do resultado obtido na melhoria da capacidade de detecção clínica das estruturas da mama. O mamógrafo em estudo dispõe de um sistema de controle automático da exposição designado por sistema AOP (Automatic Optimization of Parameters) que foi otimizado pelo fabricante a partir da razão contraste ruído. O sistema AOP é usado na prática clínica na quase totalidade dos exames de mamografia realizados no IPOC. Tendo em conta o tipo de estrutura que se pretende visualizar na mamografia, nomeadamente estruturas de baixo contraste como as massas e estruturas de dimensão submilimétrica como as microcalcificações, a análise contraste detalhe poderia constituir uma abordagem mais adequada para o estudo de otimização dos parâmetros de exposição uma vez que permitiria uma avaliação conjunta do contraste, da resolução espacial e do ruído da imagem. Numa primeira fase do trabalho foi efetuada a caracterização da prática clínica realizada no mamógrafo em estudo em termos de espessura de mama comprimida “típica”, dos parâmetros técnicos de exposição e das opções de processamento das imagens aplicadas pelo sistema AOP (combinação alvo/filtro, tensão aplicada na ampola - kVp e produto corrente-tempo da ampola - mAs). Numa segunda fase foi realizado um estudo de otimização da qualidade da imagem versus dose na perspectiva dos parâmetros físicos. Para tal foi efetuada uma análise contrastedetalhe no objeto simulador de mama CDMAM e usada uma figura de mérito definida a partir do IQFinv (inverted image quality figure) e da dose glandular média. Os resultados apontaram para uma diferença entre o ponto ótimo resultante do estudo de otimização e o ponto associado aos parâmetros de exposição escolhidos pelo sistema AOP, designadamente no caso da mama pequena. Sendo a qualidade da imagem na perspectiva clínica um conceito mais complexo cujo resultado da apreciação de uma imagem de boa qualidade deve ter em conta as diferenças entre observadores, foi efetuado na última parte deste trabalho um estudo do impacto clínico da proposta de otimização da qualidade de imagem. A partir das imagens realizadas com o objeto simulador antropomórfico TOR MAM simulando uma mama pequena, seis médicos(as) radiologistas com mais de 5 anos de experiência em mamografia avaliaram as imagens “otimizadas” obtidas utilizando-se os parâmetros técnicos de exposição resultantes do estudo de otimização e a imagem resultante da escolha do sistema AOP. A análise estatística das avaliações feitas pelos médicos indica que a imagem “otimizada” da mama pequena apresenta uma melhor visualização das microcalcificações sem perda da qualidade da imagem na deteção de fibras e de massas em comparação com a imagem “standard”. Este trabalho permitiu introduzir uma nova definição da figura de mérito para o estudo de otimização da qualidade da imagem versus dose em mamografia. Permitiu também estabelecer uma metodologia consistente que pode facilmente ser aplicada a qualquer outro mamógrafo, contribuindo para a área da otimização em mamografia digital que é uma das áreas mais relevantes no que toca à proteção radiológica do paciente.
Resumo:
O transporte marítimo e o principal meio de transporte de mercadorias em todo o mundo. Combustíveis e produtos petrolíferos representam grande parte das mercadorias transportadas por via marítima. Sendo Cabo Verde um arquipelago o transporte por mar desempenha um papel de grande relevância na economia do país. Consideramos o problema da distribuicao de combustíveis em Cabo Verde, onde uma companhia e responsavel por coordenar a distribuicao de produtos petrolíferos com a gestão dos respetivos níveis armazenados em cada porto, de modo a satisfazer a procura dos varios produtos. O objetivo consiste em determinar políticas de distribuicão de combustíveis que minimizam o custo total de distribuiçao (transporte e operacões) enquanto os n íveis de armazenamento sao mantidos nos n íveis desejados. Por conveniencia, de acordo com o planeamento temporal, o prob¬lema e divido em dois sub-problemas interligados. Um de curto prazo e outro de medio prazo. Para o problema de curto prazo sao discutidos modelos matemáticos de programacao inteira mista, que consideram simultaneamente uma medicao temporal cont ínua e uma discreta de modo a modelar multiplas janelas temporais e taxas de consumo que variam diariamente. Os modelos sao fortalecidos com a inclusão de desigualdades validas. O problema e então resolvido usando um "software" comercial. Para o problema de medio prazo sao inicialmente discutidos e comparados varios modelos de programacao inteira mista para um horizonte temporal curto assumindo agora uma taxa de consumo constante, e sao introduzidas novas desigualdades validas. Com base no modelo escolhido sao compara¬das estrategias heurísticas que combinam três heur ísticas bem conhecidas: "Rolling Horizon", "Feasibility Pump" e "Local Branching", de modo a gerar boas soluçoes admissíveis para planeamentos com horizontes temporais de varios meses. Finalmente, de modo a lidar com situaçoes imprevistas, mas impor¬tantes no transporte marítimo, como as mas condicões meteorológicas e congestionamento dos portos, apresentamos um modelo estocastico para um problema de curto prazo, onde os tempos de viagens e os tempos de espera nos portos sao aleatórios. O problema e formulado como um modelo em duas etapas, onde na primeira etapa sao tomadas as decisões relativas as rotas do navio e quantidades a carregar e descarregar e na segunda etapa (designada por sub-problema) sao consideradas as decisoes (com recurso) relativas ao escalonamento das operacões. O problema e resolvido por um metodo de decomposto que usa um algoritmo eficiente para separar as desigualdades violadas no sub-problema.
Resumo:
Network virtualisation is seen as a promising approach to overcome the so-called “Internet impasse” and bring innovation back into the Internet, by allowing easier migration towards novel networking approaches as well as the coexistence of complementary network architectures on a shared infrastructure in a commercial context. Recently, the interest from the operators and mainstream industry in network virtualisation has grown quite significantly, as the potential benefits of virtualisation became clearer, both from an economical and an operational point of view. In the beginning, the concept has been mainly a research topic and has been materialized in small-scale testbeds and research network environments. This PhD Thesis aims to provide the network operator with a set of mechanisms and algorithms capable of managing and controlling virtual networks. To this end, we propose a framework that aims to allocate, monitor and control virtual resources in a centralized and efficient manner. In order to analyse the performance of the framework, we performed the implementation and evaluation on a small-scale testbed. To enable the operator to make an efficient allocation, in real-time, and on-demand, of virtual networks onto the substrate network, it is proposed a heuristic algorithm to perform the virtual network mapping. For the network operator to obtain the highest profit of the physical network, it is also proposed a mathematical formulation that aims to maximize the number of allocated virtual networks onto the physical network. Since the power consumption of the physical network is very significant in the operating costs, it is important to make the allocation of virtual networks in fewer physical resources and onto physical resources already active. To address this challenge, we propose a mathematical formulation that aims to minimize the energy consumption of the physical network without affecting the efficiency of the allocation of virtual networks. To minimize fragmentation of the physical network while increasing the revenue of the operator, it is extended the initial formulation to contemplate the re-optimization of previously mapped virtual networks, so that the operator has a better use of its physical infrastructure. It is also necessary to address the migration of virtual networks, either for reasons of load balancing or for reasons of imminent failure of physical resources, without affecting the proper functioning of the virtual network. To this end, we propose a method based on cloning techniques to perform the migration of virtual networks across the physical infrastructure, transparently, and without affecting the virtual network. In order to assess the resilience of virtual networks to physical network failures, while obtaining the optimal solution for the migration of virtual networks in case of imminent failure of physical resources, the mathematical formulation is extended to minimize the number of nodes migrated and the relocation of virtual links. In comparison with our optimization proposals, we found out that existing heuristics for mapping virtual networks have a poor performance. We also found that it is possible to minimize the energy consumption without penalizing the efficient allocation. By applying the re-optimization on the virtual networks, it has been shown that it is possible to obtain more free resources as well as having the physical resources better balanced. Finally, it was shown that virtual networks are quite resilient to failures on the physical network.
Resumo:
Nesta tese abordam-se várias formulações e diferentes métodos para resolver o Problema da Árvore de Suporte de Custo Mínimo com Restrições de Peso (WMST – Weight-constrained Minimum Spanning Tree Problem). Este problema, com aplicações no desenho de redes de comunicações e telecomunicações, é um problema de Otimização Combinatória NP-difícil. O Problema WMST consiste em determinar, numa rede com custos e pesos associados às arestas, uma árvore de suporte de custo mínimo de tal forma que o seu peso total não exceda um dado limite especificado. Apresentam-se e comparam-se várias formulações para o problema. Uma delas é usada para desenvolver um procedimento com introdução de cortes baseado em separação e que se tornou bastante útil na obtenção de soluções para o problema. Tendo como propósito fortalecer as formulações apresentadas, introduzem-se novas classes de desigualdades válidas que foram adaptadas das conhecidas desigualdades de cobertura, desigualdades de cobertura estendida e desigualdades de cobertura levantada. As novas desigualdades incorporam a informação de dois conjuntos de soluções: o conjunto das árvores de suporte e o conjunto saco-mochila. Apresentam-se diversos algoritmos heurísticos de separação que nos permitem usar as desigualdades válidas propostas de forma eficiente. Com base na decomposição Lagrangeana, apresentam-se e comparam-se algoritmos simples, mas eficientes, que podem ser usados para calcular limites inferiores e superiores para o valor ótimo do WMST. Entre eles encontram-se dois novos algoritmos: um baseado na convexidade da função Lagrangeana e outro que faz uso da inclusão de desigualdades válidas. Com o objetivo de obter soluções aproximadas para o Problema WMST usam-se métodos heurísticos para encontrar uma solução inteira admissível. Os métodos heurísticos apresentados são baseados nas estratégias Feasibility Pump e Local Branching. Apresentam-se resultados computacionais usando todos os métodos apresentados. Os resultados mostram que os diferentes métodos apresentados são bastante eficientes para encontrar soluções para o Problema WMST.
Resumo:
No panorama energético atual, medidas de desenvolvimento sustentável têm uma preponderância cada vez mais significativa e, sendo os edifícios responsáveis por 40% da energia consumida na EU, enquadra-se o desafio de integrar medidas de eficiência energética nos novos edifícios desde a fase de conceção. Sendo que este setor se encontra em contínua expansão, a redução dos consumos passará largamente pela otimização do comportamento térmico dos edifícios e dos sistemas energéticos que os equipam. No presente trabalho estudou-se o papel da inércia térmica na redução das necessidades de energia para climatização de edifícios com o objetivo de identificar estratégias destinadas ao melhoramento do comportamento térmico e desempenho energético de edifícios construídos com recurso à técnica construtiva LSF, caracterizados por uma fraca inércia térmica quando comparados com edifícios em tudo semelhantes mas construídos recorrendo a tecnologias convencionais sem esquecer as questões relacionadas com a respetiva viabilidade económica. Com resultado geral destaca-se desde logo a importância do local onde é mais benéfico adicionar massa térmica (paredes exteriores, cobertura, paredes interiores), assim como a necessidade de utilização de um material com elevada densidade energética e baixo custo. A análise comparativa dos diferentes modelos de edifício simulados com recurso ao software DesignBuilder/EnergyPlus, foi realizada recorrendo a uma metodologia em que cada modelo construtivo é avaliado considerando quatro níveis de isolamento térmico e duas condições de cargas térmicas internas. A análise energética e económica foi realizada tendo como referência um período de 20 anos. O custo das soluções construtivas foi maioritariamente obtido através da ferramenta computacional Gerador de Preços, da Cype, SA©, tendo-se considerado um consumo energético anual constante e igual às necessidades de climatização anuais, assim como taxas de atualização de capital e de inflação do custo da energia constantes. De uma forma geral conclui-se que edifícios do tipo LSF melhorados através da adição criteriosa de massa térmica em determinados elementos construtivos, apresentam necessidades de climatização anuais na maioria dos casos estudados, inferiores àquelas verificadas em edifícios convencionais com inércia térmica média/forte. Conclui-se, também, que o método construtivo LSF se apresenta mais eficaz em termos energéticos e económicos quando comparado com soluções semelhantes construídas com recurso a um método convencional. Na secção seguinte são identificadas as principais conclusões deste trabalho.
Resumo:
Os problemas relacionados com o consumo energético e as emissões de poluentes relativas ao setor dos transportes representam seguramente a maior preocupação ao nível Europeu no que respeita aos gases com efeito de estufa e à poluição atmosférica. Uma das formas de resolver/minimizar estes problemas é através da aposta em combustíveis alternativos. Em particular, os biocombustíveis poderão ser uma alternativa interessante aos combustíveis convencionais. As microalgas, como matéria-prima para produção de biodiesel, apresentam-se com excelentes perspetivas de futuro e com vantagens competitivas no campo das energias renováveis. É nesta perspetiva que se enquadra o presente trabalho, cujos objetivos consistiram na extração de biodiesel a partir de microalgas secas (Nannochloropsis gaditana e Scenedesmus sp.) e na otimização das respetivas técnicas de extração lipídica. Verificou-se que, em função dos métodos e condições utilizadas, a espécie Nannochloropsis gaditana apresenta um potencial de produção de biodiesel superior à espécie Scenedesmus sp. (eficiências de extração de 24,6 (wt.%) e 9,4 (wt.%) respetivamente). Um método de rotura celular conjugado com o processo de extração lipídica via solvente orgânico é essencial, pois conseguiu-se um acréscimo de 42% no rendimento de extração, sendo 10 minutos o tempo ideal de operação. Solventes como o metanol e sistema de solventes diclorometano/metanol mostraram ser mais eficazes quando se pretende extrair lípidos de microalgas, com valores de eficiência de remoção de 30,9 (wt.%) e 23,2 (wt.%) respetivamente. De forma a valorizar os resultados obtidos no processo de extração recorreu-se à sua conversão em biodiesel através da transesterificação catalítica ácida, onde se obteve uma eficiência de conversão de 17,8 (wt.%) para a espécie Nannochloropsis gaditana.
Resumo:
O elevado custo da operação de recolha de resíduos urbanos e a necessidade de cumprir metas dispostas em instrumentos legais são duas motivações que conduzem à necessidade de otimizar o serviço da recolha de resíduos. A otimização da recolha de resíduos é um problema de elevada complexidade de resolução que envolve a análise de redes de transporte. O presente trabalho propõe soluções de otimização da recolha de resíduos urbanos indiferenciados, a partir de um caso de estudo: o percurso RSU I 06 do município de Aveiro. Para este efeito, recorreu-se a uma aplicação informática de representação e análise geográfica: software ArcGIS denominada ArcMap e sua extensão Network Analyst, desenvolvida para calcular circuitos otimizados entre pontos de interesse. O trabalho realizado de aplicação do Network Analyst inclui a apresentação de duas das suas funcionalidades (Route e Vehicle Routing Problem). Em relação ao atual circuito de recolha e com base nos ensaios efetuados, foi possível concluir que esta aplicação permite obter circuitos de recolha otimizados mais curtos ou com menor duração. Contudo, ao nível da gestão permitiu concluir que, com a atual capacidade de contentorização, seria viável reduzir a frequência de recolha de seis vezes por semana para metade, dividindo a área de recolha em duas áreas, de acordo com as necessidades de cada local, reduzindo ainda mais o esforço de recolha. A aplicação do Network Analyst ao caso de estudo, permitiu concluir que é um software com muito interesse no processo de gestão da recolha de resíduos urbanos, apesar de apresentar algumas restrições de aplicação e que a qualidade/eficácia do procedimento de otimização depende da qualidade dos dados de entrada, em particular do descritivo geográfico disponível para os arruamentos e, em larga medida, também depende do modelo de gestão considerado.
Resumo:
Esta Dissertação aborda a temática da eficiência energética em sistemas de iluminação fabris. Desde os primórdios da história da humanidade que a iluminação tem representado um papel importante. Não só garante condições de segurança, como começou por ser o intuito primordial das fogueiras pré-históricas, traduzindo-se num elemento de conforto. Atualmente seria impensável conceber as mais diversas atividades económicas e produtivas de um país sem iluminação. Nesse sentido a iluminação representa também um elemento fomentador de produtividade. Não é bem conhecido o impacto que a iluminação tem nos custos operacionais de uma unidade fabril. Principalmente por ser difícil de quantificar separadamente na fatura de eletricidade qual a percentagem correspondente à iluminação. Tipicamente estes custos podem ascender a 20% do orçamento global da autarquia em países desenvolvidos. Por esse motivo, o sector da iluminação tem investido esforço no sentido de promover melhores soluções de iluminação capazes de por um lado de satisfazer os requisitos do espaço a iluminar, e por outro propiciar soluções eficientes do ponto de vista energético. Estas soluções assentam essencialmente no uso de dispositivos mais eficientes (como por exemplo os LED´s ou as lâmpadas compactas fluorescentes) bem como em estratégias de controlo eficientes baseadas em dados sensoriais (como por exemplo deteção de movimento/presença). A combinação destas estratégias permite reduzir os consumos em cerca de 80% quando comparadas com soluções passivas. A empresa Amorim Cork Research Lda. é uma empresa prestadora de serviços ao universo das empresas da Corticeira Amorim, uma das maiores multinacionais de origem portuguesa. Teve origem no negócio da cortiça, em 1870, sendo hoje líder destacada no sector a nível mundial. Dada a dimensão da empresa e a sua subdivisão em várias Unidades Industriais com requisitos individuais, será expectável que a iluminação represente uma parte significativa da fatura de eletricidade. Atualmente, os vários setores encontram-se equipados com soluções de iluminação diferentes, na sua maioria empregando tecnologias passivas, noutros casos com dispositivos eficientes. Há algum interesse em migrar para soluções mais eficientes, em parte suportadas em DALI (com interface de comunicação PLC ou Zigbee).
Resumo:
Dado a globalização dos negócios e o aumento da competitividade dos produtos, é cada vez mais difícil para as grandes empresas manter a sua posição no mercado. Este processo quer-se rápido, eficaz e com o menor custo possível. Para este efeito, a metodologia Lean tem oferecido respostas bastante interessantes às empresas, com a aplicação de ferramentas da metodologia muito simples mas muito eficientes. Garantir características no produto final que façam á empresa manter ou ganhar cota no mercado é fundamental. Como tal, as empresas tentam ao máximo garantir a qualidade e o aspecto visual do produto. Posto isto, foram efetuados vários trabalhos para fazer frente às situações acima apresentadas e fazer com que o produto continue competitivo, para que possa aumentar a sua margem de lucro, mantendo o seu valor no mercado. Os trabalhos efetuados foram: plano de manutenção autónoma, um estudo do efeito da velocidade do misturador no produto final e um balanceamento à linha de aglomeração. Com a aplicação do Plano de Manutenção Autónoma, foi possível eliminar desperdícios, tornar a linha mais organizada e limpa e instruir os operadores a serem mais responsáveis, organizados e críticos ao seu trabalho. Quanto ao estudo do efeito da velocidade do misturador no produto final, os resultados não foram os esperados, dado que com o ensaio industrial efetuado não foi possível melhorar significativamente o aspeto visual do produto. Apesar de não ter sido possível a sua implementação, com o estudo do Balanceamento da linha, junto com os dados recolhidos foi possível obter um conhecimento mais pormenorizado da linha, foi criada uma possibilidade de proteger a linha de possíveis flutuações do mercado e eliminação de desperdício e uma possibilidade de listagem de tarefas estandartizadas e equilibradas, promovendo um menor esforço aos operadores. Em síntese, com a elaboração destes trabalhos, foi possível provocar um impacto positivo na linha, tornando-a mais organizada, reduzindo desperdício, protegendo de flutuações do mercado e aumentando o conhecimento da mesma.
Resumo:
A presente tese resulta de um trabalho de investigação cujo objectivo se centrou no problema de localização-distribuição (PLD) que pretende abordar, de forma integrada, duas actividades logísticas intimamente relacionadas: a localização de equipamentos e a distribuição de produtos. O PLD, nomeadamente a sua modelação matemática, tem sido estudado na literatura, dando origem a diversas aproximações que resultam de diferentes cenários reais. Importa portanto agrupar as diferentes variantes por forma a facilitar e potenciar a sua investigação. Após fazer uma revisão e propor uma taxonomia dos modelos de localização-distribuição, este trabalho foca-se na resolução de alguns modelos considerados como mais representativos. É feita assim a análise de dois dos PLDs mais básicos (os problema capacitados com procura nos nós e nos arcos), sendo apresentadas, para ambos, propostas de resolução. Posteriormente, é abordada a localização-distribuição de serviços semiobnóxios. Este tipo de serviços, ainda que seja necessário e indispensável para o público em geral, dada a sua natureza, exerce um efeito desagradável sobre as comunidades contíguas. Assim, aos critérios tipicamente utilizados na tomada de decisão sobre a localização destes serviços (habitualmente a minimização de custo) é necessário adicionar preocupações que reflectem a manutenção da qualidade de vida das regiões que sofrem o impacto do resultado da referida decisão. A abordagem da localização-distribuição de serviços semiobnóxios requer portanto uma análise multi-objectivo. Esta análise pode ser feita com recurso a dois métodos distintos: não interactivos e interactivos. Ambos são abordados nesta tese, com novas propostas, sendo o método interactivo proposto aplicável a outros problemas de programação inteira mista multi-objectivo. Por último, é desenvolvida uma ferramenta de apoio à decisão para os problemas abordados nesta tese, sendo apresentada a metodologia adoptada e as suas principais funcionalidades. A ferramenta desenvolvida tem grandes preocupações com a interface de utilizador, visto ser direccionada para decisores que tipicamente não têm conhecimentos sobre os modelos matemáticos subjacentes a este tipo de problemas.
Resumo:
O atual contexto social de aceleração exponencial, resultante de alterações políticas, económicas e do acesso imediato a um extenso conjunto de informações e a um manancial de desenvolvimentos científicos e tecnológicos, cujas implicações são imprevisíveis e transversais a diferentes setores, está em dissonância com as características do modelo escolar dominante e a naturalizada ‘gramática da escola’ (Formosinho & Machado, 2008; Nóvoa, 2009a; Tyack & Tobin, 1994). Este desfasamento, amplificado em países com sistemas de ensino de matriz centralizada, resvala entre uma ação docente acrítica e executora e, em oposição, uma ação docente de natureza profissional, caracterizada por um alinhamento entre o desenvolvimento profissional e a afirmação da especificidade do conhecimento profissional docente, enquanto saber que se constrói na interação com os outros, com o próprio, nos e sobre os contextos de prática. A implementação do processo de reorganização curricular do ensino básico (Decreto-Lei n.º 6/2001, de 18 de janeiro) redefiniu o currículo nacional segundo duas perspetivas: a nacional e a local, veiculando uma conceção curricular flexível e emancipatória, isto é, uma proposta curricular que confere aos professores autonomia no desenvolvimento e gestão do currículo, instigando-os à realização de práticas curriculares com intencionalidade pedagógica estratégica. Neste sentido, a pretensão desta investigação situou-se ao nível da problematização de saberes profissionais e da concetualização de algumas possibilidades de ação tangenciais à capacidade de autotransformação de cada profissional docente e da escola. As opções metodológicas consideradas visaram, sobretudo, compreender quais os possíveis conhecimentos profissionais mobilizados por professores de Ciências Físicas e Naturais, em particular ao nível do desenvolvimento e gestão do currículo desta área curricular. Assim, perspetivado sob a forma de questão enquadradora, o problema que esteve na génese desta investigação assume a seguinte formulação: Que conhecimento mobilizam professores do ensino básico no desenvolvimento e na gestão do currículo das Ciências Físicas e Naturais? De que forma e com que ações poderá ser potenciado esse conhecimento nos processos de ensino e aprendizagem? O estudo empírico que sustentou este projeto de investigação organizou-se em dois momentos distintos. O primeiro, de natureza predominantemente quantitativa e dimensão de análise extensiva, envolveu a administração de um inquérito por questionário a professores de Ciências Físicas e Naturais que, no ano letivo de 2006/2007, se encontravam a lecionar em escolas públicas com 2.º e 3.º ciclos afetas à Direção Regional de Educação do Norte e ao, anteriormente, designado Centro de Área Educativa de Aveiro. Com um enfoque preponderantemente qualitativo, o segundo momento do estudo decorreu ao longo do ano letivo de 2007/2008 num agrupamento de escolas da região norte do país e consistiu na realização de entrevistas a oito professores de Ciências Físicas e Naturais, à coordenadora do departamento de Matemática e Ciências Experimentais e aos presidentes do Conselho Pedagógico e do Conselho Executivo. Ao longo do ano letivo, os professores de Ciências Físicas e Naturais desenvolveram, igualmente, um percurso formativo cuja ênfase se situava ao nível da adequação do desenvolvimento e gestão do currículo desta área disciplinar. As técnicas de tratamento de dados privilegiadas foram a análise estatística e a análise de conteúdo. Os resultados deste estudo apontam para a prevalência de uma ação docente desprovida de intencionalidades pedagógica e curricular ou de integração na construção do corpo geral do saber, designadamente ao nível dos processos de desenvolvimento e gestão do currículo. Não obstante alguma familiarização com conceitos inerentes à dimensão do conhecimento do currículo, os indicadores de reapropriação ao nível da ação docente foram escassos, denunciando a presença de constrangimentos no domínio teórico das orientações curriculares nacionais e locais, bem como no desenvolvimento de práticas curriculares articuladas e estrategicamente definidas. Por outro lado, o predomínio de uma ação docente tendencialmente acrítica, de matriz executora, associada ao cumprimento de normativos legais e de rotinas e burocracias instituídas, indiciou fragilidades ao nível do conhecimento profissional configurado como mobilização complexa, organizada e coerente de conhecimentos científicos, curriculares, pedagógicos e metodológicos, em função da especificidade de cada situação educativa e cuja finalidade é a otimização da aprendizagem do aluno. O percurso formativo afigurou-se como um espaço de partilha e de reflexão colegial, propício ao desenvolvimento de ações que se inserem numa perspetiva de ‘action learning’, possibilitando a reflexão e a aprendizagem através de ações empreendidas em função de práticas educativas. As possibilidades de ação remetem para a integração da formação contínua em contexto, com intencionalidades pedagógicas e curriculares estrategicamente definidas, e a problematização da formação inicial e contínua dos professores, envolvendo as perspetivas de diferentes atores educativos e de investigadores educacionais.
Resumo:
A análise dos efeitos dos sismos mostra que a investigação em engenharia sísmica deve dar especial atenção à avaliação da vulnerabilidade das construções existentes, frequentemente desprovidas de adequada resistência sísmica tal como acontece em edifícios de betão armado (BA) de muitas cidades em países do sul da Europa, entre os quais Portugal. Sendo os pilares elementos estruturais fundamentais na resistência sísmica dos edifícios, deve ser dada especial atenção à sua resposta sob ações cíclicas. Acresce que o sismo é um tipo de ação cujos efeitos nos edifícios exige a consideração de duas componentes horizontais, o que tem exigências mais severas nos pilares comparativamente à ação unidirecional. Assim, esta tese centra-se na avaliação da resposta estrutural de pilares de betão armado sujeitos a ações cíclicas horizontais biaxiais, em três linhas principais. Em primeiro lugar desenvolveu-se uma campanha de ensaios para o estudo do comportamento cíclico uniaxial e biaxial de pilares de betão armado com esforço axial constante. Para tal foram construídas quatro séries de pilares retangulares de betão armado (24 no total) com diferentes características geométricas e quantidades de armadura longitudinal, tendo os pilares sido ensaiados para diferentes histórias de carga. Os resultados experimentais obtidos são analisados e discutidos dando particular atenção à evolução do dano, à degradação de rigidez e resistência com o aumento das exigências de deformação, à energia dissipada, ao amortecimento viscoso equivalente; por fim é proposto um índice de dano para pilares solicitados biaxialmente. De seguida foram aplicadas diferentes estratégias de modelação não-linear para a representação do comportamento biaxial dos pilares ensaiados, considerando não-linearidade distribuída ao longo dos elementos ou concentrada nas extremidades dos mesmos. Os resultados obtidos com as várias estratégias de modelação demonstraram representar adequadamente a resposta em termos das curvas envolventes força-deslocamento, mas foram encontradas algumas dificuldades na representação da degradação de resistência e na evolução da energia dissipada. Por fim, é proposto um modelo global para a representação do comportamento não-linear em flexão de elementos de betão armado sujeitos a ações biaxiais cíclicas. Este modelo tem por base um modelo uniaxial conhecido, combinado com uma função de interação desenvolvida com base no modelo de Bouc- Wen. Esta função de interação foi calibrada com recurso a técnicas de otimização e usando resultados de uma série de análises numéricas com um modelo refinado. É ainda demonstrada a capacidade do modelo simplificado em reproduzir os resultados experimentais de ensaios biaxiais de pilares.
Resumo:
A relação entre a epidemiologia, a modelação matemática e as ferramentas computacionais permite construir e testar teorias sobre o desenvolvimento e combate de uma doença. Esta tese tem como motivação o estudo de modelos epidemiológicos aplicados a doenças infeciosas numa perspetiva de Controlo Ótimo, dando particular relevância ao Dengue. Sendo uma doença tropical e subtropical transmitida por mosquitos, afecta cerca de 100 milhões de pessoas por ano, e é considerada pela Organização Mundial de Saúde como uma grande preocupação para a saúde pública. Os modelos matemáticos desenvolvidos e testados neste trabalho, baseiam-se em equações diferenciais ordinárias que descrevem a dinâmica subjacente à doença nomeadamente a interação entre humanos e mosquitos. É feito um estudo analítico dos mesmos relativamente aos pontos de equilíbrio, sua estabilidade e número básico de reprodução. A propagação do Dengue pode ser atenuada através de medidas de controlo do vetor transmissor, tais como o uso de inseticidas específicos e campanhas educacionais. Como o desenvolvimento de uma potencial vacina tem sido uma aposta mundial recente, são propostos modelos baseados na simulação de um hipotético processo de vacinação numa população. Tendo por base a teoria de Controlo Ótimo, são analisadas as estratégias ótimas para o uso destes controlos e respetivas repercussões na redução/erradicação da doença aquando de um surto na população, considerando uma abordagem bioeconómica. Os problemas formulados são resolvidos numericamente usando métodos diretos e indiretos. Os primeiros discretizam o problema reformulando-o num problema de optimização não linear. Os métodos indiretos usam o Princípio do Máximo de Pontryagin como condição necessária para encontrar a curva ótima para o respetivo controlo. Nestas duas estratégias utilizam-se vários pacotes de software numérico. Ao longo deste trabalho, houve sempre um compromisso entre o realismo dos modelos epidemiológicos e a sua tratabilidade em termos matemáticos.
Resumo:
No âmbito do Mestrado em Química, com especialização em Química Orgânica e Produtos Naturais, será apresentado nesta dissertação o trabalho desenvolvido sobre a síntese e caracterização de fosfatos e fosfonatos metálicos tetravalentes, assim como a avaliação da sua capacidade catalítica em reações de esterificação. Iniciou-se este trabalho pela síntese de vários fosfatos e fosfonatos metálicos tetravalentes, que apresentam a fórmula geral MIV(HXO4)2.nH2O e MIV(RXO3)2.nH2O, respetivamente, onde MIV = Zr, X = P, W, Mo e R = grupo orgânico. Os compostos sintetizados foram caracterizados por espetroscopia de infravermelho, difração de raios-X de pós e por análise elementar e termogravimétrica. Os fosfatos e fosfonatos metálicos tetravalentes foram avaliados como catalisadores em reações de esterificação de Fischer entre os ácidos acético, ou benzóico, e diferentes álcoois. Após esta avaliação foram efetuados estudos de otimização das condições reacionais para a síntese de cada éster. Em cada um dos casos foi utilizado o catalisador com o qual se obtiveram os melhores rendimentos nos estudos iniciais, ou seja com o molibdato-fenilfosfonato de zircónio(IV), ZrMoPhP. Todas as reações foram monitorizadas por cromatografia gasosa ou por cromatografia líquida de alta pressão. Todos os ésteres foram identificados por comparação com os padrões correspondentes.